java - 如何从Hadoop作业的Reducer中将数据加载到dynamodb表中

标签 java hadoop amazon-web-services mapreduce amazon-dynamodb

我没有找到示例mapreduce作业以将数据写入dynamoDB失败。任何引用。

最佳答案

如果hive是您可能的解决方案,则可以在此处查看:http://docs.aws.amazon.com/amazondynamodb/latest/developerguide/EMR_Hive_Commands.html

如果使用PIGhive之类的工具,这很简单-只需将输入表声明为S3(或其他),将输出表声明为DynamoDB,然后执行INSERT TABLE X SELECT * FROM Y

关于java - 如何从Hadoop作业的Reducer中将数据加载到dynamodb表中,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27115826/

相关文章:

hadoop - 将JSON文件转换为AVRO时出错

hadoop - 如何在配置单元中的多分隔符字符串上使用字符串拆分函数?

tomcat - URL 中 jsessionid 的 Amazon Load Balancer 粘性 session 配置

java - 我的 Swing 类中有太多嵌套类

java - 降低 Rabbit MQ 交付率

java - 如何在不使用arraylist的情况下只选择一次随机字符串

Javafx Tableview 将选定的行保留在当前 View 中

hadoop - 从Spark将JavaRDD保存到HDFS

amazon-web-services - !GetAtt 参数错误需要 2 个参数,但模板文件似乎不符合此要求

amazon-web-services - 无法连接到 MySQL 服务器 (110)(AWS RDS 实例)