scala - 将 Spark 数据帧转换为 Array[String]

标签 scala apache-spark apache-spark-sql

谁能告诉我如何在 scala 中将 Spark 数据帧转换为 Array[String]。

我使用了以下内容。

x =df.select(columns.head, columns.tail: _*).collect()

上面的代码片段给了我一个 Array[Row] 而不是 Array[String]

最佳答案

这应该可以解决问题:

df.select(columns: _*).collect.map(_.toSeq)

关于scala - 将 Spark 数据帧转换为 Array[String],我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46134943/

相关文章:

scala - map 中有案例与无案例

scala - Scala中阻止调用的 future

apache-spark - 写入文件时出现Databricks Checksum错误

json - 在 Spark 中将数据帧转换为 json 时如何打印空值

android - dex 在 Android 上为 Scala 构建 Ant 时失败

scala - 哪一个更好?通过数据测试还是通过算法测试?

java - Spark Java : java. lang.NoClassDefFoundError

java - Spark - 使用 OpenCSV 解析文件的序列化问题

python - 基于 pyspark 中的键有效推断数据帧模式

java - 在数据集 Apache Spark 上应用转换