hadoop - Sqoop + S3 + Parquet 导致 Wrong FS 错误

标签 hadoop amazon-s3 parquet sqoop

尝试使用Sqoop将Parquet格式的数据导入S3时,如下:

bin/sqoop import --connect 'jdbc:[conn_string]' --table [table] --target-dir s3a://bucket-name/ --hive-drop-import-delims --as-parquetfile

...我收到以下错误:

ERROR tool.ImportTool: Imported Failed: Wrong FS: s3a://bucket-name/, expected: hdfs://localhost:9000

我在导入非 parquet 数据或直接通过 HDFS 使用 s3a 时没有问题。好像 this issue , 但据称它在许多版本前已修复。

最佳答案

Sqoop 导入 parquet 格式目前不支持 s3 作为目标目录,解决方法是将数据导入 hdfs,然后使用 distcp 将 hdfs 复制到 s3

关于hadoop - Sqoop + S3 + Parquet 导致 Wrong FS 错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33223110/

相关文章:

sql - 在符合选择条件的行之前选择n行

java - 运行顺序作业 Hadoop

amazon-web-services - 如何在应用 AWS 策略之前验证 ARN?

amazon-s3 - Snowflake - 如何从 S3 中的 Parquet 文件中读取元数据

hadoop - pig java.lang.NoSuchFieldException : jobsInProgress exception

hadoop - 在 Pig 中执行 JOIN 和 FILTER 后出现 "Invalid scalar projection"错误

python - 如何使用list_objects_v2从S3获取超过1000个对象?

java - Amazon Java SDK - 上传到 S3

hive - 在 Parquet 数据上使用 Avro 架构动态创建 Hive 外部表

sql-server - 将本地 SQL Server 数据库数据以 Parquet 格式复制到 Azure