将 rdd 隐式转化为 DataFrame

首先pom文件中加入依赖

1
2
3
4
5
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.11</artifactId>
<version>${spark.version}</version>
</dependency>
1
2
3
val spark = SparkSession.builder().master("local").appName("WordCount").config(sparkConf).getOrCreate()
//利用 scala的隐式转换,可以将 rdd 隐式转化为 DataFrame
import spark.implicits._

注意: 导入需要一个 “stable identifier” , 如果定义成 var spark 则无法导入