r - 使用 Sparklyr 连接到 Spark 会出现 Permission Denied 错误

标签 r apache-spark sparklyr

安装sparklyr包后,我按照此处的说明( http://spark.rstudio.com/ )连接到spark。但面临这个错误。难道我做错了什么。请帮助我。

 sc = spark_connect( master = 'local' )

Error in file(con, "r") : cannot open the connection In addition: Warning message: In file(con, "r") : cannot open file 'C:\Users\USER\AppData\Local\Temp\RtmpYb3dq4\fileff47b3411ae_spark.log': Permission denied

但我能够在指定位置找到该文件。打开后,我发现它是空的。I

最佳答案

首先,你是否从github安装了sparklyr devtools::install_github("rstudio/sparklyr")还是克兰? 前段时间 Windows 安装出现了一些问题。

您遇到的问题似乎与 Windows 上的 TEMP 和 TMP 文件夹级别权限或文件创建权限有关。每次启动sc <- spark_connect() ,它尝试创建一个文件夹和文件来写入日志文件。 确保您对这些位置具有写入权限。

关于r - 使用 Sparklyr 连接到 Spark 会出现 Permission Denied 错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44749364/

相关文章:

r - 如何创建没有NULL/NA的错误向量?

r - 具有收敛测试的并行 RJAGS

scala - Spark流式批量查找数据

apache-spark - 在 Spark 应用程序中保存 RDD 的元素

postgresql - 斯卡拉java.lang.NoClassDefFoundError : org/postgresql/Driver

r - 带有 R-plugin 和 LaTeX-Suite 的 Vim 在插入模式下导致反斜杠行为异常

r - 用另一个字符串替换R中数据帧的每一行的子字符串

r - 使用 sparklyr 将列数据类型更改为因子

r - sparklyr:如何跨组获取平衡样本

r - Spark ML_pipelines : managing table reading