r - 初始化 sparkR : JVM is not ready after 10 seconds 时出错

标签 r hadoop apache-spark hadoop2 sparkr

我目前正在使用 sparkR 测试一个应用程序。这是我的平台和应用程序详细信息:

Platform: Windows server 2008 SparkR version : R version 3.1.2 (2014-10-31) Spark Verion : version 1.4.1

我做了什么?

第一步:将包加载到 R 环境中

library(SparkR) -- Working

第二步:设置系统环境变量

Sys.setenv(SPARK_HOME = "C:\hdp\spark-1.4.1-bin-hadoop2.6") -- Working .libPaths(c(file.path(Sys.getenv("SPARK_HOME"), "R", "lib"),.libPaths()))

第三步:创建 spark 上下文和 SQL 上下文

sc <- sparkR.init(master = "local",sparkHome = "C:\hdp\spark-1.4.1-bin-hadoop2.6",appName = "TestSparR")

在此行出现错误,即 10 秒后 JVM 未准备就绪

请帮我解决这个问题。 谢谢。

最佳答案

我遇到了同样的问题,我可以告诉你我尝试了很多很多东西。

但最终以下对我有用,在重新启动我的计算机(顺便说一下,还有 R 和 RStudio)之后:

SPARK_HOME <- "C:\\Apache\\spark-1.5.2-bin-hadoop2.6\\"
Sys.setenv('SPARKR_SUBMIT_ARGS'='"--packages" "com.databricks:spark-csv_2.10:1.2.0" "sparkr-shell"')
library(SparkR, lib.loc = "C:\\Apache\\spark-1.5.2-bin-hadoop2.6\\R\\lib")

library(SparkR)
library(rJava)

sc <- sparkR.init(master = "local", sparkHome = SPARK_HOME)

也许这会有所帮助:重新启动系统后,这已包含在我的环境变量 PATH 中:

C:\ProgramData\Oracle\Java\javapath

关于r - 初始化 sparkR : JVM is not ready after 10 seconds 时出错,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32204792/

相关文章:

r - 如何获取经纬度范围内的 map ?

eclipse 中的 java.lang.NoSuchFieldError : IBM_JAVA error while running hadoop 2. 2.0

python - 在 IntelliJ IDEA 中编写并运行 pyspark

sql-server - 使用 RODBC 时返回字符(0)

python - 如何使用 R 或 python 读取和转换 GrADS 平面二进制格式?

hadoop - HBASE 安装 - 获取 ZOOKEPER 相关错误

hadoop - 如何在 Oozie 工作流中使文件可选?

string - 使用 Scala 在 Apache Spark 中拆分字符串

python - 在 PySpark 中,使用 regexp_replace,如何用另一列的值替换一个组?

r - 使用标准评估更改 dplyr::count 中的变量名称