hadoop - 使用 Spark 在 HQL 中进行 CRUD 操作

标签 hadoop apache-spark hive hql apache-spark-sql

我正在尝试执行 CRUD 中的操作高品质 使用 Apache Spark 。 选择 插入 时语句运行良好更新 删除 并在 中获得异常 java .

这是我的选择插入 声明:

选择 :
从员工中选择 *;

插入:
插入员工 select t.* from(select 1,'hadoop','hyderabad')t;

对于 插入 我正在使用临时表执行。有没有办法执行更新 删除 陈述?

我正在使用 Spark 1.6.2 hive 1.2.1

最佳答案

Spark SQL 仅支持可用于批处理作业的 HQL 子集,它不是通用 Hive 接口(interface)。不支持更新和删除。

如果你需要这个,你应该直接使用外部 Hive 客户端。

关于hadoop - 使用 Spark 在 HQL 中进行 CRUD 操作,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40906529/

相关文章:

mongodb - hadoop 与 mongodb 和 hadoop vs mongodb

hadoop - Lily Hbase Indexers 无故退出

mysql - 如何从 .csv 文件创建 Hive 表,该文件有一列,字段由分号分隔;

hive - 带有Hive 1.1(CDH 5.7.1)的Apache NiFi Hive处理器

hadoop - Hive 2.3.2 Local模式找不到Hadoop安装

hadoop - MapReduce 中是否需要 key ?

java - Hadoop MapReduce作业可实现最高频率

apache-spark - 如何访问 Spark Web UI?

python - 在本地运行 pyspark

apache-spark - 在 csv 与 delta 表中使用 df.coalesce(1)