scala - Spark 1.3.0 的 API 中 SchemaRDD 的声明在哪里

标签 scala apache-spark

  1. 这些代码在IDEA中报错,为什么?

    val sqlContext = new org.apache.spark.sql.SQLContext(sc)
    import sqlContext.createSchemaRDD
    val people = sc.textFile("c3/test.txt").map(_.split(",")).map(p => Person(p(0), p(1).trim.toInt))
    people.registerTempTable("people")
    
  2. 除了import sqlContext.createSchemaRDD之外,还有其他方法可以将sqlContext转换为SchemaRDD吗?

    <
  3. 我在spark api文档中找不到SchemaRDD类,为什么?

最佳答案

SchemaRDD 在 Apache Spark 1.3.0 中已重命名为 DataFrame。请参阅migration guide .

关于scala - Spark 1.3.0 的 API 中 SchemaRDD 的声明在哪里,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29507722/

相关文章:

正则表达式,http 链接不是图像的 url

Scala:我有一个 Set[X] 和函数 (X) => Future[Y] 并想输出一个 Future[Map[X, Y]]

java - Spark 中的数据帧列表

linux - Activator Active Stocks 入门应用程序无法运行并出现 java.io.IOException?

scala - 不可变集合上的 += 运算符

scala - 卡夫卡制片人卡在发送

python - 使用 sklearn 和 Spark 时的轮廓分数不同

scala - 将列名添加到从csv文件读取的数据中而没有列名

scala - 如何使用值初始化Scala不可变 HashMap ?

java - (Spark skewed join) 如何在没有内存问题的情况下连接两个具有高度重复键的大型 Spark RDD?