RserveException : eval failed when running R on Databricks

标签 r apache-spark

我对 R 没有任何经验,我试图在 Databricks 笔记本中与 Spark 一起使用它来分析一些数据。

我遵循了这里的教程 http://people.apache.org/~pwendell/spark-releases/latest/sparkr.html

到目前为止,我有这个代码:

sparkR.stop()
sc <- sparkR.init()
sqlContext <- sparkRSQL.init(sc)

df <- createDataFrame(sqlContext, '/FileStore/tables/boanf7gu1466936449434/german.data')

在最后一行我收到错误:
RserveException: eval failed, request status: error code: 127
org.rosuda.REngine.Rserve.RserveException: eval failed, request status: error code: 127
    at org.rosuda.REngine.Rserve.RConnection.eval(RConnection.java:234)
    at com.databricks.backend.daemon.driver.RShell.setJobGroup(RShell.scala:202)
    at com.databricks.backend.daemon.driver.RDriverLocal.setJobGroup(RDriverLocal.scala:150)
    at com.databricks.backend.daemon.driver.DriverLocal.execute(DriverLocal.scala:125)
    at com.databricks.backend.daemon.driver.DriverWrapper$$anonfun$3.apply(DriverWrapper.scala:483)
    at com.databricks.backend.daemon.driver.DriverWrapper$$anonfun$3.apply(DriverWrapper.scala:483)
    at scala.util.Try$.apply(Try.scala:161)
    at com.databricks.backend.daemon.driver.DriverWrapper.executeCommand(DriverWrapper.scala:480)
    at com.databricks.backend.daemon.driver.DriverWrapper.runInner(DriverWrapper.scala:381)
    at com.databricks.backend.daemon.driver.DriverWrapper.run(DriverWrapper.scala:212)
    at java.lang.Thread.run(Thread.java:745)

这是什么触发?

最佳答案

在 DataBricks 中,已经有一个 spark 实例在运行。所以,你不想阻止它。

sparkR.stop() #This line of your code stops the existing spark instance. 
sc <- sparkR.init()  #You also don't need this to start a spark instance because you already have one.
sqlContext <- sparkRSQL.init(sc)

由于您已经有一个实例,因此您可以直接使用以下内容创建 df。
spark_table <- SparkR::read.df(path = '/FileStore/tables/boanf7gu1466936449434/german.data', schema = NULL, na.strings = "NA")
r_table <- SparkR::as.data.frame(spark_table)

关于RserveException : eval failed when running R on Databricks,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38037595/

相关文章:

r - 更改图例标题 ggplot2

hadoop - RDD分区和切片有什么区别?

scala - 将 reduceByKey 从 Spark 转换到 Flink

r - 如何使用r中的pairs函数添加散点图的点图?

r - 模拟后得到的两个向量的比较

r - ggplot2:将标签标记为以 e 为底的指数

python - Pyspark - Python3 使用 configparser 从文件中获取变量

apache-spark - spark是否将整个hive表带入内存

python - 使用 Bash 的 Hadoop 流式传输——有多慢?

linux - 防止 R 在 unix/linux 上使用虚拟内存?