apache-spark - Spark : Determine the driver address from within a task

标签 apache-spark pyspark

出于调试目的,我想从 Spark 任务(在执行程序中运行)向驱动程序计算机发送消息。 docs声称 spark.driver.host 包含此信息,但我不知道如何从工作人员(或从驱动程序,就此而言......)访问它

最佳答案

sc.getConf.get("spark.driver.host")

但是驱动程序不是您所需要的。你需要一个 worker 。因此,请在 rdd.mapPartitions block 中尝试类似以下代码:

val localhost = java.net.InetAddress.getLocalHost
val ip = java.net.NetworkInterface.getByInetAddress(localhost)

检查this以获得更精确的方法。

关于apache-spark - Spark : Determine the driver address from within a task,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38882453/

相关文章:

apache-spark - Spark 是否适合分析(无需重新分发)来自多台计算机的日志?

windows - 如何在 Windows 10 上运行 Spark Streaming 应用程序?

python - Spark : Why is my UDF not called in rdd map?

Python自定义日志到数据库

apache-spark - 撤消缩放数据 pyspark

apache-spark - spark-submit,如何指定log4j.properties

python - 在 PySpark 中提取特定行

apache-spark - Pyspark CI CD 管道

pyspark - 使用 Synapse Analytics 将数据帧写入 SQL 专用数据库

numpy - SparkSQL 过滤函数不适用于 NaN