scala - 如何对rdd格式的字符串列求和?

标签 scala apache-spark rdd

我是 Spark 新手。我已使用 sc.textFile 加载了一个 csv 文件。我想使用reduceByKey对字符串类型但包含数字的列进行求和。 当我尝试使用类似 reduceByKey(_ + _) 的方法时,它只是将数字放在一起。 我该怎么办?我应该转换列吗?

最佳答案

您需要解析字符串,例如:

scala> val rdd = sc.parallelize(Seq(("a", "1"), ("a", "2.7128"), ("b", "3.14"),
       ("b", "4"), ("b", "POTATO")))
rdd: org.apache.spark.rdd.RDD[(String, String)] = ParallelCollectionRDD[57] at parallelize at <console>:27

scala> def parseDouble(s: String) = try { Some(s.toDouble) } catch { case _ => None }
parseDouble: (s: String)Option[Double]

scala> val reduced = rdd.flatMapValues(parseDouble).reduceByKey(_+_)
reduced: org.apache.spark.rdd.RDD[(String, Double)] = ShuffledRDD[59] at reduceByKey at <console>:31

scala> reduced.collect.foreach{println}
(a,3.7128)
(b,7.140000000000001)

关于scala - 如何对rdd格式的字符串列求和?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40600039/

相关文章:

java - 如何在 Spark Java 中从结构体中检索值?

scala - 如何为 Spark 结构化流编写 JDBC Sink [SparkException : Task not serializable]?

python - 连接两个具有多个值分量的 RDD 并展平结果

scala - 使用文本文件第一行的一部分作为RDD中的key

java - Play Framework : Mixing Java and Scala controller/views

多种类型时的 Scala 方差

java - 由于 java.lang.NoClassDefFoundError : org/postgresql/Driver,无法运行 spark 应用程序

java - 如何完全驱逐Spark中的持久 "Stream Blocks"

Scala - 在伴随对象中实现 "manager"模式?

scala - 每 x 天滚动一次的 logback filenamepattern