amazon-s3 - "remoteContext object has no attribute"

标签 amazon-s3 apache-spark pyspark

我正在 Databrick 的云中运行 Spark 1.4。我将一个文件加载到我的 S3 实例中并安装它。安装成功了。但我在创建 RDD 时遇到问题: enter image description here enter image description here

dbutils.fs.mount("s3n://%s:%s@%s" % (ACCESS_KEY, SECRET_KEY, AWS_BUCKET_NAME), "/mnt/%s" % MOUNT_NAME)

有什么想法吗?

sc.parallelize([1,2,3])
rdd = sc.textFiles("/mnt/GDELT_2014_EVENTS/GDELT_2014.csv")

最佳答案

您已经将数据安装到 dbfs 中,这非常棒,而且看起来您只是有一个小拼写错误。我怀疑您想使用 sc.textFile 而不是 sc.textFiles。祝您在 Spark 的冒险之旅中好运。

关于amazon-s3 - "remoteContext object has no attribute",我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30956598/

相关文章:

apache - 如何使用 FUSE 以适当的权限挂载 S3 卷

amazon-web-services - lambda 函数中未找到存储桶错误

css - S3 CSS 资源未加载,但之前已加载。为什么会停下来呢?

apache-spark - 如何使用 Spark-streaming-kafka-0-8 依赖项来提交 Spark Streaming 应用程序?

java - 可以使用 Java 中的 GraphX 将 CSV 文件转换为图形吗

java - Spark 1.6 DirectFileOutputCommitter

python - 无法在 Jupyter 笔记本中读取 avro

amazon-web-services - 如何使用boto3快速提取S3中的文件?

r - 使用 Sparklyr 将字符串转换为 R 中的逻辑字符串

apache-spark - 如何在Spark SQL中进行左外部联接?