Spark中的Scala方法toLowerCase

标签 scala apache-spark

val file = sc.textFile(filePath)
val sol1=file.map(x=>x.split("\t")).map(x=>Array(x(4),x(5),x(1)))
val sol2=sol1.map(x=>x(2).toLowerCase)

在 sol1 中,我创建了一个 Rdd[Array[String]] 并且我想将每个数组的第三个字符串元素放在 LowerCase 中,所以调用 toLowerCase 方法,它应该这样做,而是将字符串转换为小写字符? ?

最佳答案

我假设您想将第三个数组元素转换为小写

val sol1=file.map(x=>x.split("\t"))
             .map(x => Array(x(4),x(5),x(1).toLowerCase))

在您的代码中,sol2 将是字符串序列,而不是数组序列。

关于Spark中的Scala方法toLowerCase,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39952151/

相关文章:

scala - 如何使用 Def.app 和 KList 映射任务的依赖关系

scala - Spark 连接到本地 Hive 而不是远程

apache-spark - 集群部署模式下的 spark-submit 将应用程序 ID 获取到控制台

apache-spark - 如何解决Spark中最大 View 深度错误?

apache-spark - Spark的takeSample()结果分两个阶段

scala - 如何在 Slick 中定义可选外键?

scala - Scala 中的类类型参数。

scala - 模拟specs2中的slick.dbio.DBIO组成

apache-spark - Pyspark:拯救变压器

python - PySpark 将 'map' 类型的列转换为数据框中的多列