java - 如何在 Java 中从另一个数据帧平面映射一个数据帧?

标签 java apache-spark dataframe

我有一个如下所示的数据框:

+-----------------+--------------------+
|               id|            document|
+-----------------+--------------------+
| doc1            |"word1, word2"      |
| doc2            |"word3 word4"       |
+-----------------+--------------------+

我想创建另一个具有以下结构的数据框:

   +-----------------+--------------------+-----------------+
    |               id|            document| word           |
    +-----------------+--------------------+----------------|
    | doc1            |"word1, word2"      | word1          |
    | doc1            |"word1 word2"       | word2          |
    | doc2            |"word3 word4"       | word3          |
    | doc2            |"word3 word4"       | word4          |
    +-----------------+--------------------+----------------|

我尝试了以下方法:

public static Dataset<Row> buildInvertIndex(Dataset<Row> inputRaw, SQLContext sqlContext, String id) {

    JavaRDD<Row> inputInvertedIndex = inputRaw.javaRDD();
    JavaRDD<Tuple3<String, String ,String>> d = inputInvertedIndex.flatMap(x -> {

        List<Tuple3<String, String, String>> k = new ArrayList<>();
        String data2 = x.getString(0).toString();
        String[] field2 = x.getString(1).split(" ", -1);
        for(String s: field2)
            k.add(new Tuple3<String, String, String>(data2, x.getString(1), s));
        return k.iterator();
    }
            );


    JavaPairRDD<String, Tuple2<String, String>>d2 = d.mapToPair(x->{
        return new Tuple2<String, Tuple2<String, String>>(x._3(), new Tuple2<String, String>(x._1(), x._2()));  

    });

    Dataset<Row> d3 = sqlContext.createDataset(JavaPairRDD.toRDD(d2), Encoders.tuple(Encoders.STRING(), Encoders.tuple(Encoders.STRING(),Encoders.STRING()))).toDF();

    return d3;
}

但它给出了:

+-----------------+----------------------+
|               _1|            _2        |
+-----------------+----------------------+
| word1           |[doc1,"word1, word2"] |
| word2           |[doc1,"word1 word2"]  |
| word3           |[doc2, "word3, word4"]|
| word4           |[doc2, "word3, word4"]|
+-----------------+----------------------+

我是 java Spark 新手。所以请任何帮助,我们将不胜感激。另外,假设在上面的第二个数据框中我想计算两列文档和单词的字符串相似度度量(即 jaccard)并将结果添加到新列中,我该怎么做?

最佳答案

您可以使用explodesplit

import static org.apache.spark.sql.functions.expr;
inputRaw.withColumn("word", expr("explode(split(document, '[, ]+'))"))

关于java - 如何在 Java 中从另一个数据帧平面映射一个数据帧?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55254289/

相关文章:

java - 是否可以使用 jni 增强反射性能?

java - Android 对服务器进行 PATCH/PUT

使用 XSL 将文本文件转换为 XML 的 Java 程序

java - 无法使用Java初始化Spark上下文

python - Pandas 根据列值创建新行

python - 将 Pandas Dataframe 转换为特定格式

java - 使用 IntelliJ IDEA 批量重命名方法

scala - Cluster 模式下使用 Spark 写入文件到本地系统

java - 冰雹.utils.java.FatalError : IllegalStateException: unread block data

python - Pandas DataFrames 将方括号添加到特定列值