我是 scala 新手..我想知道在 Spark 中使用 scala 处理大型数据集时是否可以读取为 int RDD 而不是 String RDD
我尝试了以下方法:
val intArr = sc
.textFile("Downloads/data/train.csv")
.map(line=>line.split(","))
.map(_.toInt)
但我收到错误:
error: value toInt is not a member of
Array[String]
我需要转换为 int rdd 因为接下来我需要执行以下操作
val vectors = intArr.map(p => Vectors.dense(p))
要求类型为整数
非常感谢任何形式的帮助..提前致谢
最佳答案
据我了解,一行应该创建一个向量,所以它应该是这样的:
val result = sc
.textFile("Downloads/data/train.csv")
.map(line => line.split(","))
.map(numbers => Vectors.dense(numbers.map(_.toInt)))
numbers.map(_.toInt)
会将数组的每个元素映射为 int,因此结果类型将为 Array[Int]
关于scala - 将字符串 RDD 转换为 Int RDD,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39727964/