apache-spark - Spark 错误 - 值文本文件不是 org.apache.spark.sparkcontext 的成员

标签 apache-spark apache-spark-sql

我刚刚开始使用 Apache spark。当我尝试 RDD 文件时,出现错误:
值文本文件不是 org.apache.spark.SparkContext 的成员。

这是我输入的内容:

val data1 = sc.textfile("README.md")

我有带 Spark 的 AmazonEMR。

最佳答案

好的,刚刚发现区分大小写。这需要是 textFile (with F Cap) 。
我希望这会帮助某人。

关于apache-spark - Spark 错误 - 值文本文件不是 org.apache.spark.sparkcontext 的成员,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34265047/

相关文章:

dataframe - 如何创建具有指定模式的空 DataFrame?

scala - 使用 spark cassandra 连接器更新 Cassandra 表

python - 在 Python 中使用 RDD 与 Spark SQL 计算标准偏差

apache-spark - 写入数据库是由 Spark 集群中的驱动程序或执行程序完成的

apache-spark - 分组以将 hive 中的多列值合并为一列

java - 将数据集 <row> 预测中的 vector 数据类型 "probability"列转换为数组?

scala - 如何从 spark 执行器读取 HDFS 文件?

scala - Spark Filter/Predicate Pushdown 是否在 ORC 文件中没有按预期工作?

apache-spark - 如何将流式查询的数据写入Hive?

hadoop - 完成任务时在SQLListener.onTaskEnd上引发NullPointerException