hadoop - 将数据从Google Cloud Storage复制到本地Hadoop集群

标签 hadoop google-cloud-platform google-cloud-storage

我正在尝试将数据从Google Cloud Storage中的存储桶复制到本地Hadoop集群(我已经在Mac中安装了)。遵循本链接中的指示; Migrating 50TB data from local Hadoop cluster to Google Cloud Storage
但是执行hdfs命令hdfs dfs -ls gs://tempuserstorage时出现以下错误。

17/04/28 15:42:13 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
17/04/28 15:42:14 INFO gcs.GoogleHadoopFileSystemBase: GHFS version: 1.6.0-hadoop2
    -ls: Google Cloud Storage bucket name must not contain '/' character.
    Usage: hadoop fs [generic options] -ls [-d] [-h] [-R] [<path> ...]

我也尝试过hadoop fs -ls gs://tempuserstorage但虽然得到了同样的错误

我在这里想念什么吗?

最佳答案

好像在为fs.gs.system.bucket提供值时犯了一个错误。除存储桶名称外(例如mybucket);我还已经在bucket(mybucket/mydir)中添加了目录,这似乎已引起了问题

关于hadoop - 将数据从Google Cloud Storage复制到本地Hadoop集群,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43688737/

相关文章:

c++ - Hadoop流C++ getTaskId

hadoop - Datanode容量为0kb

powershell - 使用服务帐户访问 G Suite Admin SDK

javascript - 将浏览器 JavaScript 错误发送到 Stackdriver 错误报告

java - 如何使用java将 "ACL"设置为google存储文件夹下的所有文件

google-cloud-firestore - Cloud Storage 是否与 Firestore 同步离线工作

hadoop - 通过Hive导出到Oracle表时,将字符串和非字符串数据转换为空字段的 'null'

elasticsearch - 在Google Cloud Storage上进行全文本搜索

node.js - 如何在 Node.js 中使用 bigquery API 获取 Google Cloud 的 800 万条记录?

hadoop - 特殊字符作为Spark中的文件分隔符