scala - Spark SQL为Hive构建吗?

标签 scala hadoop apache-spark spark-streaming apache-spark-sql

我已经下载了spark版本-1.3.1,程序包类型为Hadoop 2.6及更高版本的预构建

现在我想使用Spark Shell在Scala代码下运行,所以我遵循了以下步骤

1. bin/spark-shell

2. val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)

3. sqlContext.sql("CREATE TABLE IF NOT EXISTS src (key INT, value STRING)")

现在的问题是,如果我在像这样的色相浏览器上验证它
select * from src;

然后我得到

table not found exception



这表示未创建表,我如何配置带有Spark Shell的配置单元以使其成功。我想使用SparkSQL,我也需要从Hive读取和写入数据。

我随机听说我们需要将hive-site.xml文件复制到spark目录中的某个位置

有人可以解释一下步骤-SparkSQL和Hive配置

谢谢
杜沙尔

最佳答案

确实,hive-site.xml方向是正确的。看看https://spark.apache.org/docs/latest/sql-programming-guide.html#hive-tables

听起来您也希望通过spark创建一个配置单元表,为此请参见上述同一文档中的“保存到持久性表”。

关于scala - Spark SQL为Hive构建吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30613772/

相关文章:

apache-spark - GraphX - 从路径中检索所有节点

apache-spark - Apache Spark : SparkPi Example

java - 如何仅允许单个连接(url/端口)从 flink 应用程序读取和写入

带有 andThen 类型不匹配的 Scala 链接函数

python - Hadoop 流在 map/reduce 操作中崩溃

hadoop - 如何获取使用gzip压缩存储在hdfs中的文件的原始内容?

csv - Hive - 加载以管道开头的管道分隔数据

java - Scala中 "return"语句的目的?

java - 如何将实现 java.lang.Comparable 的类转换为实现 Scala.Ordered?

apache-spark - 在 Spark SQL 中使用 Avro 模式和 Parquet 格式进行读/写