就像标题所说的那样。每次我在我正在使用的 RedHat 机器上启动 SparkR shell 并尝试使用函数 read.df() 时,它都会说找不到该函数。如果有帮助,我正在使用 SparkR 2.0。
更具体地说,这是我尝试输入的内容:data <- read.df(sqlContext, "/path/to/the/file", "parquet")
编辑:为了澄清,这里是确切的情况:> data <- df.read("valid/path/to/parquet/file", "parquet")
Error: could not find function "df.read"
最佳答案
不再需要 sqlContext 参数 read.df("./examples/src/main/resources/people.parquet", "parquet")
检查此https://spark.apache.org/docs/latest/api/R/read.df.html
关于apache-spark - SparkR 说它找不到函数 read.df,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39797858/