The Docs说“每个 Databricks 部署都有一个中央 Hive 元存储......”除了用于现有 Hive 安装的外部元存储。
我有一个带有底层 Spark 集群的 Azure Databricks 工作区,以及存储在 DBFS 和 Blob 存储上的数据文件。我是否需要具有外部元存储的 HDInsight 群集才能创建和使用 Hive 表?或者我可以使用上面提到的中央元存储来根据 DBFS 或 Blob 存储上存储的数据创建 Hive 表吗?
最佳答案
@Gadam 不,你没有。 Azure Databricks 提供了自己的 Hive 元存储,但如果您已经将其与 HDInsight 一起使用,则可以将 Databricks 配置为也使用它(外部元存储)。
关于azure - 我可以在没有 Hadoop/HDInsight 的情况下在 Azure Databricks 上使用 Hive 吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52228036/