r - 安装Spark 1.4自带的SparkR

标签 r apache-spark sparkr

最新版本的 Spark (1.4) 现在附带 SparkR。有谁知道如何在 Windows 上安装 SparkR 实现? SparkR.R脚本当前位于C:/spark-1.4.0/R/pkgs/R/

This似乎是朝着正确方向迈出的一步,但这些说明不适用于 Windows,因为没有与之相关的 SparkR 目录。

最佳答案

@DavidArenburg 让我走上了正轨。

按照 C:\spark-1.4.0\R\WINDOWS.md 中的 Windows 文档,我安装了 RTools 并将 R.exe 和 RTools 添加到我的计算机路径中。

然后,我在 C:\spark-1.4.0\R 中运行 install-dev.bat,这添加了我缺少的 lib\SparkR\安装。

然后,从命令提示符处运行

mklink /D "C:\Program Files\R\R-3.1.3\library\SparkR" "C:\spark-1.4.0\R\lib\SparkR"

这在我的 R 包目录中添加了一个链接到 Spark 文件夹中的安装。

library(SparkR) # this should run now.

关于r - 安装Spark 1.4自带的SparkR,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30868523/

相关文章:

r - 排列()不识别列名参数

r - plotly crosstalk 过滤器过滤错误,从变量中泄漏其他类别的值

r - 有没有办法选择性地应用这个 stringr 函数?

apache-spark - 在Docker Parquet错误中发 Spark 未找到预定义架构

r - Data.table:与 j 一起使用的方括号

json - Spark 如何在 Scala 的两个 JSONS 中更改键的数量?

apache-spark - 为什么 Spark 1.6 不使用 Akka?

java - Apache Spark 使用java(分区)

apache-spark - 写入 Spark 中指定的 Parquet 文件名

r - 从 R 笔记本访问 Azure Blob 存储