hadoop - 如何从 Hive 加载数据到 Phoenix?

标签 hadoop hive hbase apache-phoenix

Hive 有一个 HBase integration .鉴于此,是否可以从配置单元插入 Phoenix 表? (作为批量加​​载/插入覆盖)复合主键怎么样?我们可以在 Hive 中生成它们吗?

最佳答案

不,很遗憾,Hive HBase 集成无法将数据加载到 Phoenix 表中。此外,(根据我的经验)对 HBase 集成的复合行键的支持并不全面。例如:Hive 不支持包含 Integer、String、BigDecimal 的组合键。

您可以使用 Phoenix-mr集成或 Phoenix-Pig一体化。 Phoenix 也有一个 csv 批量加载器。

关于hadoop - 如何从 Hive 加载数据到 Phoenix?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28909996/

相关文章:

hadoop - Hive外表数据是不是和内表一样分布到数据节点?

Apache 配置单元错误 Merging of credentials not supported in this version of hadoop

hadoop - SQL-HIVE-PIG-Mapreduce

hbase -/hbase 的 ConnectionLoss + 对等方重置的连接?

ruby-on-rails - 使用 CouchDB 与 Hadoop 存储/分析 Web 应用程序日志数据的优点是什么?

hadoop - Spark 流 "ERROR JobScheduler: error in job generator"

hadoop - Hadoop安装R

sql - 多表左半加入 Hive

java - 获取编码的区域名称-HBase

hadoop - 线程 "main"org.apache.hadoop.mapred.InvalidJobConfException : Output directory not set 中出现异常