hdfs - 如果无法通过 SSH 连接到主节点,则在 dataproc 集群上运行 HDFS 命令

标签 hdfs google-cloud-dataproc

如果无法通过 SSH 连接到主节点,是否有办法在 Dataproc 集群上提交 HDFS 命令。我在 Gcloud SDK 或其余 API 中找不到任何内容。

所以类似:

gcloud dataproc jobs submit hdfs 'ls /hdfs/path/' --cluster=my-cluster --region=europe-west1

最佳答案

最简单的方法是 pig fs通过 gcloud dataproc jobs 提交 pig --execute 'fs -ls/',或通过 pig sh 作为其他 shell 命令的包罗万象。

关于hdfs - 如果无法通过 SSH 连接到主节点,则在 dataproc 集群上运行 HDFS 命令,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53216703/

相关文章:

hadoop - 将具有不同ID的MR作业提交到Hadoop集群

java - 多输入和分组比较器

hadoop - 如何从 apache Drill 中查询 hdfs 零件文件

ssh - 关闭并打开Goog​​le Cloud虚拟机(计算引擎)后,动态端口转发失败

sql-server - Google Data Fusion 中的 SQL Server 源不起作用(SSL 握手问题)

hadoop - 使用 hadoop distcp 命令在 Dataproc 上等效的 s3-dist-cp groupBy

hadoop - Dataproc bdutil版本控制

java - Hadoop作业看不到文件,那hadoop fs -cat可以正常打印

java - Spark Java API,数据集操作?

google-cloud-dataproc - 使用 google-cloud-python API 访问 Dataproc 时出现无效区域错误