运行 Spark 时 python 脚本卡在输入法上

标签 python apache-spark pyspark

我正在 Spark 中通过 python 运行一个简单的脚本 当我使用输入法时,运行脚本卡在该行 这是代码:

from pyspark import SparkConf, SparkContext

conf = SparkConf().setMaster("local").setAppName("My App")
sc = SparkContext(conf = conf)

testFileName = input("enter file name: ");
print("okey I'll open " + testFileName)
# load an RDD from a test file
fileRDD = sc.textFile(testFileName)

最佳答案

当您使用 spark-submit 提交应用程序时,您不会与 Python 代码交互,而是与 Java 代码交互,Java 代码不需要来自标准输入的任何输入。

如果你想让它工作,你必须跳过 spark-submit 并直接将其作为 Python 脚本执行。

关于运行 Spark 时 python 脚本卡在输入法上,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40910869/

相关文章:

python - 如果我已经从前一个 block 中的函数返回,我应该使用 elif 吗?

apache-spark - 在 Yarn 上运行 Spark 直线

python - 从 PySpark 中的数据框中删除重复项

python字典根据字母创建键并根据出现的频率创建值

python - python中sqlite3的executemany语句的限制

python - 将每个元素视为元组时,在 PySpark 中加入 2 个 RDD

sql - 在 Spark SQL 中使用 Group By 日期进行聚合

python-3.x - 使用空元素在 pyspark 数据帧 read.csv 中设置架构

apache-spark - Firehose JSON -> S3 Parquet -> ETL Spark,错误 : Unable to infer schema for Parquet

python - 使用多处理在 GUI 应用程序中进行异步调用