我刚刚开始使用 Apache spark。当我尝试 RDD 文件时,出现错误:
值文本文件不是 org.apache.spark.SparkContext 的成员。
这是我输入的内容:
val data1 = sc.textfile("README.md")
我有带 Spark 的 AmazonEMR。
最佳答案
好的,刚刚发现区分大小写。这需要是 textFile (with F Cap) 。
我希望这会帮助某人。
关于apache-spark - Spark 错误 - 值文本文件不是 org.apache.spark.sparkcontext 的成员,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34265047/