azure - 我可以在没有 Hadoop/HDInsight 的情况下在 Azure Databricks 上使用 Hive 吗?

标签 azure hive azure-hdinsight databricks azure-blob-storage

The Docs说“每个 Databricks 部署都有一个中央 Hive 元存储......”除了用于现有 Hive 安装的外部元存储。

我有一个带有底层 Spark 集群的 Azure Databricks 工作区,以及存储在 DBFS 和 Blob 存储上的数据文件。我是否需要具有外部元存储的 HDInsight 群集才能创建和使用 Hive 表?或者我可以使用上面提到的中央元存储来根据 DBFS 或 Blob 存储上存储的数据创建 Hive 表吗?

最佳答案

@Gadam 不,你没有。 Azure Databricks 提供了自己的 Hive 元存储,但如果您已经将其与 HDInsight 一起使用,则可以将 Databricks 配置为也使用它(外部元存储)。

关于azure - 我可以在没有 Hadoop/HDInsight 的情况下在 Azure Databricks 上使用 Hive 吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52228036/

相关文章:

python - 加载时未找到 Pickle 文件

hadoop - 我们可以插入外部表吗

mysql - 配置单元左外连接条件

arrays - 我无法将csv加载到临时表HIVE

python - 使用 Visual Studio 将 PySpark 作业发送到 HDInsight 群集?

基于Azure存储容器的共享 key

azure - 对 Azure 静态 Web 应用进行更深入的分析?

azure - 虚拟机网络

apache-spark - 如何以自定义格式加载带有时间戳的CSV?

azure - HDInsight : Selection method not accepting Storage account