scala - 无法从 HDFS 读取文件

标签 scala hadoop apache-spark

我正在尝试从 HDFS 读取文件。我正在使用以下代码:

val sam = sc.wholeTextFiles("hdfs://localhost:9000"+inputFolder,4)

我收到以下错误:

java.lang.IllegalArgumentException: Wrong FS: hdfs://localhost, expected: hdfs://localhost:9000

我已经引用了这个问题以在我的文件路径中添加 URI:
Cannot Read a file from HDFS using Spark

但由于上述错误,我仍然无法读取文件。我该如何解决这个问题?

最佳答案

您能否检查在您的系统中添加 winutils.exe 并为其设置环境变量。 Spark 需要 winutils.exe 来执行 hdfs 操作。

关于scala - 无法从 HDFS 读取文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40495253/

相关文章:

hadoop - Spark、Hadoop 和 Cassandra 之间是什么关系

scala - 计算两个 Seq 列与第三列之间的相关性的正确方法

scala - Scala中阻止调用的 future

scala - Spark : what options can be passed with DataFrame. saveAsTable 或 DataFrameWriter.options?

scala - 使用 Maven 打包并运行 Scala Spark 项目

hadoop - 在HDInsight 4.0中创建群集期间更改Hive托管表的默认路径

amazon-web-services - 如何在EMR中的特定实例组上运行脚本

scala - 缺少 Cats Functor[Future] 实例

hadoop - 基于分布式/操作系统的有趣项目

python - 合并两个 PySpark DataFrame 会产生意想不到的结果