hadoop - Flume 无法将文件放入 S3 存储桶

标签 hadoop amazon-s3 amazon amqp flume

我在其仅节点(测试)模式下使用水槽; Flume 从 RabbitMQ 拉取消息并将其放入 Amazon S3 存储桶。

问题:

Flume 实际上是从 RabbitMQ 中提取的,但文件不会出现在 S3 存储桶中。

技术细节:

我以以下方式启动水槽:

flume node -1 -c $FQDN':amqp("exchangeName=[exchange name]", "bindings=[binding name]", "host=127.0.0.1", "port=5672", "userName=[user]", "password=[pass]", "exchangeType=direct", "durableExchange=false", "queueName=[queue name]", "durableQueue=true", "exclusiveQueue=false", "autoDeleteQueue=false", "useMessageTimestamp=true")|collectorSink("s3n://[Amazon key]:[Amazon secret]@[path at S3]","server");' -s "$@" > "$log" 2>&1

水槽日志:

在flume重启后,当通过相关的exchange和queue发送东西时,flume log中会出现以下几行:
INFO com.cloudera.flume.handlers.hdfs.EscapedCustomDfsSink: Opening s3n://[key]:[secret]@[path at S3]

WARN org.apache.hadoop.util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

WARN org.apache.hadoop.io.compress.snappy.LoadSnappy: Snappy native library not loaded

最佳答案

你不会相信的...

Flume 无法使用包含“/”的 Amazon key 进行管理
我使用的 key 包含一个。
然后 Flume 认出了它,只是没有调用亚马逊。

解决方案:
更改亚马逊 key ,直到你得到一个不带“/”的 key

关于hadoop - Flume 无法将文件放入 S3 存储桶,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11987233/

相关文章:

java - 如何从 map 作业输出整个文件?

django admin 上传图片到s3然后调整图片大小和保存thumb问题

amazon-web-services - 通过 TaskCat 拒绝访问 S3

ssl - 使用python爬虫发送亚马逊修改邮政编码接口(interface)时遇到疑似TLS指纹风控

apache-spark - 我不能 hive 地跑 Spark

sql - 在spagoBI Studio中无法使用配置单元(CDH5 | CDH4)生成元模型

hadoop - 无法与PySpark应用架构-不一致的字段

amazon-web-services - 跨区域复制的 S3 存储桶的 CloudFront CDN

linux - 亚马逊 linux AMI 与 Ubuntu

php - 将 cURL 用于 Amazon Associates 报告...可能吗?