apache-spark - 为 Databricks 生成数据库架构图

标签 apache-spark database-schema databricks diagram

我正在创建一个 Databricks 应用程序,并且数据库架构变得非常重要。有没有办法为 Databricks 数据库生成架构图(类似于可以从 mysql 生成的架构图)?

最佳答案

有两种可能的变体:

  1. 使用 Spark SQL show databases , show tables in <database> , describe table ...
  2. 使用 spark.catalog.listDatabases , spark.catalog.listTables , spark.catagog.listColumns .

当数据库/命名空间中有很多表时,第二个变体的性能不是很好,尽管以编程方式使用它稍微容易一些。但在这两种情况下,实现都只是 3 个嵌套循环,迭代数据库列表,然后迭代数据库内的表列表,然后迭代表内的列列表。该数据可用于使用您最喜欢的图表工具生成图表。

这里是生成 PlantUML 源代码的代码(完整代码为here):

# This script generates PlantUML diagram for tables visible to Spark.
# The diagram is stored in the db_schema.puml file, so just run
# 'java -jar plantuml.jar db_schema.puml' to get PNG file

from pyspark.sql import SparkSession
from pyspark.sql.utils import AnalysisException

# Variables

# list of databases/namespaces to analyze.  Could be empty, then all existing 
# databases/namespaces will be processed
databases = ["a", "airbnb"] # put databases/namespace to handle
# change this if you want to include temporary tables as well
include_temp = False

# implementation
spark = SparkSession.builder.appName("Database Schema Generator").getOrCreate()

# if databases aren't specified, then fetch list from the Spark
if len(databases) == 0:
    databases = [db["namespace"] for db in spark.sql("show databases").collect()]

with open(f"db_schema.puml", "w") as f:
    f.write("\n".join(
        ["@startuml", "skinparam packageStyle rectangle", "hide circle",
         "hide empty methods", "", ""]))

    for database_name in databases[:3]:
        f.write(f'package "{database_name}" {{\n')
        tables = spark.sql(f"show tables in `{database_name}`")
        for tbl in tables.collect():
            table_name = tbl["tableName"]
            db = tbl["database"]
            if include_temp or not tbl["isTemporary"]:
                lines = []
                try:
                    lines.append(f'class {table_name} {{')
                    cols = spark.sql(f"describe table `{db}`.`{table_name}`")
                    for cl in cols.collect():
                        col_name = cl["col_name"]
                        data_type = cl["data_type"]
                        lines.append(f'{{field}} {col_name} : {data_type}')

                    lines.append('}\n')
                    f.write("\n".join(lines))
                except AnalysisException as ex:
                    print(f"Error when trying to describe {tbl.database}.{table_name}: {ex}")

        f.write("}\n\n")

    f.write("@enduml\n")

然后可以转换成图片:

enter image description here

关于apache-spark - 为 Databricks 生成数据库架构图,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/63783824/

相关文章:

azure - 从 DBFS 安装到 Azure Data Lake 创建新表

scala - 如何在不收集的情况下将RDD,Dataframe或Dataset直接转换为Broadcast变量?

java - 使用 spark-submit 和 java -cp 运行 spark 应用程序时有什么区别?

database - ER图中3个实体之间的关系-是一个三元数还是还需要2个二进制数?

ruby-on-rails - 在 Rails 模型中使用多个 PostgreSQL 模式

python - Spark Dataframe 在性能上比 Pandas Dataframe 有何优势?

python - Pyspark 以周格式显示日期值以及周开始日期和结束日期

python - 将 ML VectorUDT 特征从 .mllib 转换为 .ml 类型以进行线性回归

database - 优化 Cassandra 查询性能

python - Databricks dbutils 不显示特定文件夹下的文件夹列表