scala - Spark-shell 命令抛出错误

标签 scala hadoop apache-spark cloudera

我正在尝试使用 $ spark-shell 打开 spark shell,它每次都在工作,但今天突然抛出了这个错误:

错误

WARN util.Utils: Service 'SparkUI' could not bind on port 4040. Attempting port 4041.

最佳答案

如果你不再需要它,你可以终止监听端口 4040 的进程

fuser -k -n tcp 4040

或者如果您需要两个实例,您可以使用另一个端口启动一个新的 spark-shell

spark-shell --conf spark.ui.port=4048

关于scala - Spark-shell 命令抛出错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38767876/

相关文章:

使用 bazel 运行 java_test 时的 java.io.tmpdir

Scala - 初始化 REPL 环境

hadoop - 兼容性 hbase 和 hadoop

sql - 在 JSON 上查询 Hive 的 EOF 异常

python - 将 GraphFrames ShortestPath Map 转换为 PySpark 中的 DataFrame 行

scala - 使用Spark Databricks平台从URL读取数据

scala - Scala 如何通过基于大小使用不同的类来实现 Map 和 Set 的性能提升?

scala - 使用关联和交换运算符折叠/减少 future 列表

python - PySpark 与 sklearn TFIDF

scala - 如何将Apache Spark日志从驱动程序和从属服务器重定向到使用log4j启动Spark作业的计算机的控制台?