Spark程序首先要做的是创建SparkContext
对象,它将管理Spark如何访问cluster。而在创建SparkContext
之前,可以配置SparkConf
,以设置Spark应用的信息。
在每个JVM中,只有一个SparkContext是active
,因此在创建新的context之前,需要关闭活动的context
val conf = new SparkConf().setAppName(appName).setMaster(master)
new SparkContext(conf)