r - 安装 sparkR 时出错

标签 r apache-spark sbt sparkr

我正在尝试安装 SparkR

library(devtools)
install_github("amplab-extras/SparkR-pkg", subdir="pkg")

然后我发现这个错误

Launching sbt from sbt/sbt-launch-0.13.6.jar Invalid or corrupt jarfile sbt/sbt-launch-0.13.6.jar make: *** [target/scala-2.10/sparkr-assembly-0.1.jar] Error 1 ERROR: compilation failed for package ‘SparkR’ * removing ‘/Users/apple/Library/R/3.2/library/SparkR’ Error: Command failed (1)

最佳答案

在继续之前阅读:

amplab-extras/SparkR-pkg 不再维护。当前版本的 SparkR 随 Spark 本身一起提供。另见 Installing of SparkR


存储库中的 Sbt 下载链接无效,您得到的实际上是一个 HTML 文件。您可以更正 pkg/src/sbt/sbt 中的 URL2所以它指向:

http://repo.typesafe.com/typesafe/ivy-releases/org.scala-sbt/sbt-launch/0.13.6/sbt-launch.jar

download and install sbt ,克隆存储库:

git clone https://github.com/amplab-extras/SparkR-pkg.git

转到源:

cd SparkR-pkg/pkg/src

组装:

sbt assembly

并安装:

R -e "devtools::install('.')"

关于r - 安装 sparkR 时出错,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35682001/

相关文章:

hadoop - Spark + yarn : How to retain logs of lost-executors

python - Spark 中的 Word2Vec 是否在整个文本列上进行训练

sbt - 什么时候将交叉路径设置为true?

scala - 重复数据删除公共(public)验证器 - sbt 程序集

r - 无需任何手册和信息即可知道包中可用的函数和数据集(黑盒)R

r - 通过使用涉及两列的两个单独的选择标准使用 dplyr 进行过滤

apache-spark - Spark 中的 DataFrame orderBy 后跟 limit

java - sbt 程序集在提供的依赖项之间切换

r - 关于 UseMethod 搜索机制的困惑

r - 创建拟合对数模型