java - Spark Java DataFrame 中的合并列

标签 java apache-spark

类似的还有posts在 Stack Overflow 上有同样的问题,但在 Java Spark Dataframe 上没有。

任何人都可以帮我做同样的事情,但是用java。

我尝试了发布的解决方案 here但它不适用于 Java。似乎合并函数需要 Scala.collections.seq<columns>作为类型。如何让它在 Java 中工作

最佳答案

我必须将列转换为 Seq 才能使其在 Java 8 中工作。

public Seq<Column> getSeqString(Column a, Column b)
    {
        ArrayList<Column> cols = new ArrayList<Column>();
        cols.add(a);
        cols.add(b);
        return scala.collection.JavaConverters.collectionAsScalaIterableConverter(cols).asScala().toBuffer();
    }

关于java - Spark Java DataFrame 中的合并列,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58098158/

相关文章:

python - Pyspark 将列类型从日期更改为字符串

scala - 最简单程序的大型任务

apache-spark - 如何从 Spark PairRDD 存储和读取数据

java - 将对象添加到指定索引处的 ArrayList

java - 使用 Eureka 服务集成测试 Spring Boot 服务

java - Camel 蓝图sql事务管理器

java - 您使用 Javascript 的效率是否与使用 .Net 或 Java 一样高?

apache-spark - 读取大型 zip 文件时 Spark 错误 : java. lang.IllegalArgumentException : Size exceeds Integer. MAX_VALUE

java - Maven项目+ Java Servlet不断返回404(未找到)

java - Spark Streaming/Spark 在 main() 方法中是否像 while 循环一样工作?