r - 将 sparkr 收集到数据框中

标签 r apache-spark sparkr

我正在将一些数据加载到 sparkR(Spark 版本 1.4.0,在 fedora21 上运行),我在上面运行一些算法,生成三个不同的数字。我的算法需要一堆参数,我想在相同数据上运行不同的参数设置。输出格式应该是一个数据框(或一个 csv 列表),其列是算法参数和我的算法计算的三个数字,即

  mypar1, mypar2, mypar3, myres1, myres2, myres3
  1       1.5     1.2     5.6      8.212  5.9
  2       1.8     1.7     5.1      7.78   8.34

将是两个不同参数设置的输出。 我写了下面的脚本,它并行运行不同的参数设置:它接受一个带有参数值的输入文件作为参数,对于上面的例子来说,它看起来像这样:

 1,1.5,1.2
 2,1.8,1.7

所以每行一个参数组合。

这是我的问题:不是每个参数设置一个,而是将所有数字合并到一个长列表中。函数 cv_spark 返回一个 data.frame(基本上是一行)。我如何告诉 spark 将 cv_spark 的输出组合到数据帧(即做类似 rbind 的事情?)或列表列表中?

#!/home/myname/Spark/spark-1.4.0/bin/sparkR

library(SparkR)

sparkcontext <- sparkR.init("local[3]","cvspark",sparkEnvir=list(spark.executor.memory="1g"))

cv_spark <- function(indata) {
   cv_params <- strsplit(indata, split=",")[[1]]
   param.par1 = as.integer(cv_params[1])
   param.par2 = as.numeric(cv_params[2])
   param.par3 = as.numeric(cv_params[3])
   predictions <- rep(NA, 1)
   ## here I run some calculation on some data that I load to my SparkR session, 
   ## but for illustration purpose I'm just filling up with some random numbers
   mypred = base:::sample(seq(5,10,by=0.01),3)
   predictions <- cbind(param.par1, param.par2, param.par3,mypred[1],mypred[2],mypred[3])
   return(as.data.frame(predictions))
}

args <- commandArgs(trailingOnly=TRUE)
print(paste("args ", args))
cvpar = readLines(args[[1]])

rdd <- SparkR:::parallelize(sparkcontext, coll=cvpar, numSlices=4)
myerr <- SparkR:::flatMap(rdd,cv_spark)
output <- SparkR:::collect(myerr)
print("final output")
print(output)

outfile = "spark_output.csv"
write.csv(output,outfile,quote=FALSE,row.names=FALSE)

最佳答案

我设法通过使用 flatMapValues 而不是 flatMap 并通过创建 (key, value) 对我的各种参数设置(基本上键是我的参数输入文件中的行号,值是该行上的参数)。然后我调用 reduceByKey,它基本上每个键保存一行。修改后的脚本如下所示:

#!/home/myname/Spark/spark-1.4.0/bin/sparkR

library(SparkR)

sparkcontext <- sparkR.init("local[4]","cvspark",sparkEnvir=list(spark.executor.memory="1g"))

cv_spark <- function(indata) {
   cv_params <- unlist(strsplit(indata[[1]], split=","))
   param.par1 = as.integer(cv_params[1])
   param.par2 = as.numeric(cv_params[2])
   param.par3 = as.integer(cv_params[3])
   predictions <- rep(NA, 1)
   ## here I run some calculation on some data that I load to my SparkR session, 
   ## but for illustration purpose I'm just filling up with some random numbers
   mypred = base:::sample(seq(5,10,by=0.01),3)
   predictions <- cbind(param.par1, param.par2, param.par3,mypred[1],mypred[2],mypred[3])
   return(as.data.frame(predictions))
}

args <- commandArgs(trailingOnly=TRUE)
print(paste("args ", args))
cvpar = readLines(args[[1]])
## Creates (key, value) pairs
cvpar <- Map(list,seq(1,length(cvpar)),cvpar)

rdd <- SparkR:::parallelize(sparkcontext, coll=cvpar, numSlices=1)
myerr <- SparkR:::flatMapValues(rdd,cv_spark)
myerr <- SparkR:::reduceByKey(myerr,"c", 2L)
output <- SparkR:::collect(myerr)

myres <- sapply(output,`[`,2)
df_res <- do.call("rbind",myres)
colnames(df_res) <- c("Element","sigdf","sigq","err","err.sse","err.mse")

outfile = "spark_output.csv"
write.csv(df_res,outfile,quote=FALSE,row.names=FALSE)

这按预期工作,即输出是一个数据帧(或 csv 文件),其行数与上述脚本的输入文件中的行数相同(即不同参数值配置的数量),但也许还有更多执行此操作的有效方法。

关于r - 将 sparkr 收集到数据框中,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32423905/

相关文章:

r - 如何模拟 R 中的一手扑克牌?

python - 带有 $$ 的数据框列名称在过滤条件中失败并出现解析错误

hadoop - Spark : Connection refused webapp proxy on yarn

r - 从 R 笔记本访问 Azure Blob 存储

r - 使用 SparkR 2.0.0 进行并行分布式处理

r - 在 R 中处理分组数据

r - 符号之前/之后的字符

r - 基于正则表达式模式匹配将 PDF 索引为数据帧列表

apache-spark - 计算spark sql的运行时间

rstudio - 通过 RStudio 加载 com.databricks.spark.csv