databricks - 使用服务主体从 Databricks 访问 blob 存储

标签 databricks azure-databricks

我关注了Access an Azure Data Lake Storage Gen2 account directly with OAuth 2.0 using the Service Principal并希望实现相同的目标,但使用 blob 存储通用 v2(禁用分层文件系统)。是否有可能使其正常工作,或者使用访问 key 或 SAS 进行身份验证是唯一的方法?

最佳答案

不,目前这是不可能的。 Azure Data Lake Storage Gen2 支持 OAuth 承载 token (创建存储帐户时启用分层命名空间)。要访问 Azure Data Lake Store Gen2,ABFS-driver使用:

abfss://<your-file-system-name>@<your-storage-account-name>.dfs.core.windows.net/

要访问您使用 WASB 的 Blob 存储:

wasbs://<your-container-name>@<your-storage-account-name>.blob.core.windows.net 

仅支持基于 token 的访问。

关于databricks - 使用服务主体从 Databricks 访问 blob 存储,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56936053/

相关文章:

python - Pyspark 与 DBUtils

azure - Azure Purview 的 ODBC 连接

azure - 从 azure 数据工厂到 Databricks 的链接服务 : How to parametrize?

apache-spark - 在pyspark中,spark.read()和spark.readstream()有什么区别?

azure - 如何在 Azure Blob 存储中覆盖后命名 csv 文件

apache-spark - FileNotFoundException - delta_log 中缺少 checkpoint.parquet

引用同一包中其他文件的 Python Egg 库文件

python - 从 Flake8 结果中过滤掉特定错误

python - 从azure数据工厂执行python脚本

azure - 使用服务主体从 DataBricks 连接到 Azure SQL 数据库