azure - 如何使用databricks-connect在本地执行Spark代码?

标签 azure apache-spark databricks azure-databricks

有没有办法在本地执行 Spark 代码 databricks-connect

原因是我想在 CI/CD 管道中执行一些测试,而不需要启动并运行集群。

最佳答案

不,databricks-connect 需要正在运行的集群。 如果您不使用任何 databricks 特定代码(例如 dbutils),您可以在本地运行 Spark 并针对该代码执行 - 假设您仍然可以访问所需的数据源。

关于azure - 如何使用databricks-connect在本地执行Spark代码?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57186230/

相关文章:

apache-spark - 如何避免Hive暂存区写入云端

databricks - LIVE TABLE 和 STREAMING LIVE TABLE 的区别

angular - JWT token 中缺少 ADAL Angular2 appid(未经授权的响应)

node.js - Azure DevOps 管道打开的文件太多

c# - 使用 ImageMagick 将图像压缩为 azure blob

apache-spark - 如何确定 Apache Spark 数据帧中的分区大小

odbc - ('01000' , "[01000] [unixODBC][Driver Manager]Can' t 打开库 '/opt/simba/spark/lib/64/libsparkodbc_sb64.so' : file not found (0) (SQLDriverConnect)")

即使获得 Multi-Tenancy 应用程序的管理员同意,Azure AD 用户登录应用程序也会失败

jar - 使用 sbt 程序集创建 fat jar 时出现 OutofMemoryErrory

java - 如何使用Dataset API编写字数统计?