Spark程序首先要做的是创建SparkContext 对象,它将管理Spark如何访问cluster。而在创建SparkContext 之前,可以配置SparkConf ,以设置Spark应用的信息。

在每个JVM中,只有一个SparkContext是active ,因此在创建新的context之前,需要关闭活动的context

val conf = new SparkConf().setAppName(appName).setMaster(master)
new SparkContext(conf)

results matching ""

    No results matching ""