hadoop - 远程HDFS文件从安全群集移动到非安全群集不起作用

标签 hadoop hdfs kerberos

尝试将文件从安全(kerberized)群集中的一个hdfs文件夹移动到非安全群集中的另一个hdfs文件夹。源和目标都在非安全群集上。以下代码在安全群集中执行,以将文件从源hdfs文件夹移动到非安全群集中的目标hdfs文件夹。

import org.apache.hadoop.fs.{FileSystem, FileUtil, Path}
import org.apache.hadoop.conf.Configuration
import org.apache.spark.sql.SparkSession

val sparkSession = SparkSession.builder().getOrCreate()
import sparkSession.implicits._

val conf = new Configuration
conf.set("fs.defaultFS", "hdfs://host:8020"); // This is non-secured cluster
conf.set("ipc.client.fallback-to-simple-auth-allowed", "true")
val fs = FileSystem.get(conf)

val source = new Path("/ABC/test.log")
val destination = new Path("/ABC/test")

val isMoved = FileUtil.copy(fs, source, fs, destination, true, true, conf)

上面的代码抛出错误
"java.io.IOException: Server asks us to fall back to SIMPLE auth, but this client is configured to only allow secure connections"

我已经将 config.set(“ipc.client.fallback-to-simple-auth-allowed”,“true”)设置为,但是它不起作用。我想在代码级别使用此配置,而不是在core-default.xml或core-site.xml文件中添加此配置。

请注意,以下命令在从安全群集中启动并且文件在非安全群集中移动时起作用。
hdfs dfs -Dipc.client.fallback-to-simple-auth-allowed=true -mv hdfs://host:8020/ABC/test.log hdfs://host:8020/ABC/test

最佳答案

我已经如下更改了命令,它起作用了。

hdfs dfs -Dipc.client.fallback-to-simple-auth-allowed=true -mv webhdfs://host:50070/ABC/test.log webhdfs://host:50070/ABC/test

此外,我们还向非安全群集hdfs中的安全群集用户授予了写权限。

关于hadoop - 远程HDFS文件从安全群集移动到非安全群集不起作用,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59472948/

相关文章:

apache-spark - 如何判断我正在Spark中运行哪个应用程序?

java - 使用jsp在tomcat中开发kerberos

hadoop - 如何计算从一个 Hive 表复制到另一个表的行数

java - GSSAPI缺陷票

timestamp - Kerberos 时间戳

hadoop - pig 按命令分组不起作用

hadoop - 像Hive一样分区在Pig中

hadoop - 什么是YARN(Hadoop)-非常简单的示例

hadoop - 分析+全文搜索-大数据

具有 HDFS 文件读/写的 Java