apache-spark - 使用 Spark 写入外部 Hadoop

标签 apache-spark hadoop hdfs

我正在使用 Java-Spark。

我正在尝试写入外部 HDFS 目录,如下所示:

df.write().mode(mode).save("hdfs://myservername:8020/user/path/to/hdfs");

并得到一个异常(exception)

host details: local host is: ... destination host is: ...

如何从 Spark 写入“外部”hdfs 目录而不写入本地 Hadoop/HDFS?

谢谢

最佳答案

检查 HDFS Namenode 主机名是否可以从 Spark 集群访问,您也可以使用 ip 地址。

hdfs://<HDFS_NAMENODE_IP>:8020/user/path/to/hdfs

您还可以使用以下方式更新 spark 应用程序中的 spark 配置:

spark.conf.set("fs.defaultFS", "hdfs://<HDFS_NAMENODE_IP>:8020/") .

关于apache-spark - 使用 Spark 写入外部 Hadoop,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51498687/

相关文章:

hadoop - 生成 HDFS 序列文件

scala - 显示目录名称和文件架构的 Json 架构

scala - 修剪Java中Apache Spark中的特殊字符

scala - 用 Scala 为 Kafka API 0.10 : custom AVRO deserializer 编写的 Kafka Consumer for Spark

java - Hadoop wordcount伪分布式模式错误退出代码:127

hadoop - 无法将Power BI连接到Hadoop HDFS未能获取内容

python - 如何将标准输入数据作为输入输入到 spark 脚本

hadoop - 可以同时运行多少个 Mapreduce 作业

hadoop - 是否可以在 SPARK 中覆盖 Hadoop 配置?

hadoop - 我需要在哪里创建 HDFS 用户?