apache-spark - SparkR 说它找不到函数 read.df

标签 apache-spark centos redhat sparkr

就像标题所说的那样。每次我在我正在使用的 RedHat 机器上启动 SparkR shell 并尝试使用函数 read.df() 时,它都会说找不到该函数。如果有帮助,我正在使用 SparkR 2.0。

更具体地说,这是我尝试输入的内容:
data <- read.df(sqlContext, "/path/to/the/file", "parquet")
编辑:为了澄清,这里是确切的情况:
> data <- df.read("valid/path/to/parquet/file", "parquet") Error: could not find function "df.read"

最佳答案

不再需要 sqlContext 参数 read.df("./examples/src/main/resources/people.parquet", "parquet")

检查此https://spark.apache.org/docs/latest/api/R/read.df.html

关于apache-spark - SparkR 说它找不到函数 read.df,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39797858/

相关文章:

Nginx 不会为 Web 应用程序提供服务

python - 如何在linux上的python中安装模块autopy?

PHP 5.1.6 - 站点在许多地方显示对象 # 而不是内容

linux - 将 CentOS (RedHat) 5.4 升级到 6

linux - 每个发行版的等效包

java - Spark中ReduceByKey中的参数

hadoop - Spark ThriftServer 无法以安全模式启动

apache-spark - Spark 数据集 - 内部连接问题

apache-spark - Pyspark 数据帧 : Extract a column based on the value of another column

linux - 驱动编译Redhat