scala - 从 Spark 读取字符串数组

标签 scala apache-spark

我保存了一个 Array[String]从 Spark 到 Parquet 文件。

要阅读它,我使用:

row.getAs[Array[String]]("result")

但是得到:
java.lang.ClassCastException: scala.collection.mutable.WrappedArray$ofRef cannot be cast to [Ljava.lang.String;

这是printSchema()的结果:
root                                                                            
 |-- result: array (nullable = true)
 |    |-- element: string (containsNull = true)
getAs()应该怎么做被修改?

最佳答案

是否row.getAs[Seq[String]]("result")工作?

关于scala - 从 Spark 读取字符串数组,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33204205/

相关文章:

scala - scala.util.Random 线程安全吗?

scala - if isEmpty 问题

scala - 类型推断有多昂贵?

java - 无法使用 Java 启动 Spark

python - 从 Spark 写入 cassandra 时忽略大小写

mongodb - 查找查询结果到List

java - Scala 相当于 JavaScript 数组扩展

java - Apache Spark - 内存异常错误 - IntelliJ 设置

scala - 如何使用 Apache Spark 和 Scala 创建嵌套 json

scala - Spark 在 Yarn 集群上运行 exitCode=13 :