这是我第一次将 Apache-Spark 与 python (pyspark) 结合使用,我尝试运行 Quick Start Examples ,但是当我运行这条线时说:
>>> textFile = spark.read.text("README.md")
它给了我以下错误(我只粘贴了第一部分,因为我认为它是最重要的):
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
File "/home/daniele/Scaricati/spark/python/pyspark/sql/readwriter.py", line 311, in text
return self._df(self._jreader.text(self._spark._sc._jvm.PythonUtils.toSeq(paths)))
File "/home/daniele/Scaricati/spark/python/lib/py4j-0.10.4-src.zip/py4j/java_gateway.py", line 1133, in __call__
File "/home/daniele/Scaricati/spark/python/pyspark/sql/utils.py", line 63, in deco
return f(*a, **kw)
File "/home/daniele/Scaricati/spark/python/lib/py4j-0.10.4-src.zip/py4j/protocol.py", line 319, in get_return_value
py4j.protocol.Py4JJavaError: An error occurred while calling o22.text.
: java.lang.reflect.InaccessibleObjectException: Unable to make field private transient java.lang.String java.net.URI.scheme accessible: module java.base does not "opens java.net" to unnamed module @779d0812
at java.base/java.lang.reflect.AccessibleObject.checkCanSetAccessible(AccessibleObject.java:335)
有人可以帮我解决这个问题吗? 对不起,如果我的帖子不是那么清楚,但这是这个论坛上的第一篇。 感谢所有愿意提供帮助的人, 丹妮尔。
最佳答案
问题是您的spark 版本和java 版本不兼容。为了解决这个问题,您必须执行以下操作:
检查您的 PySpark 版本:
pyspark
检查您的 PySpark 版本需要哪个 Java 版本(例如,对于 PySpark 2.4.6,我们需要 Java 8 - https://spark.apache.org/docs/2.4.6/)
检查您安装的可用 Java 版本
/usr/libexec/java_home -V
如果您的 Java 版本不可用,请安装它(例如
brew install adoptopenjdk8
)更改您的 JAVA_HOME 以指向正确的版本。示例:
export JAVA_HOME="/Library/Java/JavaVirtualMachines/adoptopenjdk-8.jdk/Contents/Home"
确认版本
java -version
在此之后,您应该能够按要求执行您的功能
textFile = spark.read.text("README.md")
textFile.show()
关于python - python : java. lang.reflect.InaccessibleObjectException 上的 Apache-Spark 错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47167891/