apache-spark - 在 Databricks 上将 Spark.databricks.service.server.enabled 设置为 true 时到底会发生什么?

标签 apache-spark databricks

谁能解释一下 spark.databricks.service.server.enabled 设置为 true 时到底会做什么? 我在文档中唯一能找到的是,当使用 Databricks Runtime 5.3 或更低版本时,它应该设置为 true,但我找不到对幕后发生的事情的解释 ( https://docs.databricks.com/dev-tools/databricks-connect.html )

如果您有任何有用的回复,我将不胜感激。

谢谢

最佳答案

注意: spark.databricks.service.server.enabled true 可帮助您从远程计算机处理 Databricks 集群。

作为集群设置的一部分“spark.databricks.service.server.enabled true”有助于 Databricks Connect 允许您连接您最喜欢的 IDE(IntelliJ、Eclipse、PyCharm、RStudio、Visual Studio),笔记本服务器(Zeppelin、Jupyter)和其他自定义应用程序连接到 Azure Databricks 群集并运行 Apache Spark 代码。

关于apache-spark - 在 Databricks 上将 Spark.databricks.service.server.enabled 设置为 true 时到底会发生什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/61101803/

相关文章:

apache-spark - 在无限流中计数不同

apache-spark - 如何设置 pod 以使用所有可用的 CPU 内核

Databricks Unity Catalog 同一区域的多个元存储

azure - 无法将 key 添加到 Azure key-Vault 支持的 Databricks 范围

java - 如何使用 spark-connector-api 在 where 子句中设置 blob 列?

amazon-web-services - 在 AWS EMR 集群上启动 spark 命令行时权限被拒绝

java - Apache Spark with Java,从 Oracle 中的 Varchar2 转换为日期类型失败

python - 使用 %sql 语句设置 databricks python 变量

apache-spark - 通过databricks向Hive外部表添加新分区

python - Databricks dbutils 不显示特定文件夹下的文件夹列表