Hadoop - 获取数据的最有效方式

标签 hadoop hive hiveql

我在 hadoop 中有很多数据,我需要将其复制到 msql 数据库中。

在 hive 中选择我需要的列(几乎是所有列)并使用 INSERT OVERWRITE 写入结果会更有效,还是使用 copyToLocal< 会更好 shell命令复制文件并手动转换数据?

最佳答案

如果你的数据在 hadoop 中,你可以使用 Sqoop 将它移动到 MYSQL DB 中。直接使用 SQOOP 将是高效的,然后再添加一个额外的 HIVE 层。获取 MYSQL 连接器,您可以尝试如下操作,让我知道需要更多帮助。

bin/sqoop export --connect jdbc:mysql:///--table -username -P --export-dir -m1

关于Hadoop - 获取数据的最有效方式,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/23096271/

相关文章:

在将值发送到 reducer 之前对其进行排序

amazon-web-services - 中等 Hadoop/Spark 集群管理

hive - 雅典娜查询错误 : Athena query failed: "NOT_SUPPORTED: Unsupported Hive type

hadoop - Hive - 面临动态分区错误的挑战

Hadoop (HDFS) - 文件版本控制

hadoop - Hbase浏览器显示Api错误:TSocket读取0字节的色相

python - 如何指定分配给 hive 中查询的最大 vcores?

hadoop - 如何在ORC表中创建行序号

time - HIVE:如何计算时间的秒差格式:yyyyMMdd HH:mm:ss

hadoop - 在Hive中使用Join插入数据