java - 在spark上找不到reduceByKey方法

标签 java apache-spark

我在 Java Eclipse 上使用 Spark-core_2.10 jar。我在其中找不到任何reduceBykey 方法!我得到的关于reduce的建议是reducetreeReduce。知道这里出了什么问题吗?

最佳答案

在 Java 中,PairRDD 存在更多麻烦(与自动推断类型的 Scala 相比,或者与运行时不考虑类型和期望元组的 Python 相比) )。由于 reduceByKey 需要知道 key ,它是 defined on JavaPairRDD类。

您可以通过调用 JavaRDD#mapToPair正常 RDD 获取JavaPairRDD 。您提供 PairFunction 返回元组,其中第一个元素被视为生成的 JavaPairRDD 中的键。

关于java - 在spark上找不到reduceByKey方法,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39385284/

相关文章:

apache-spark - 在 Spark 2.4 (Hdinsight) 中使用 Delta Lake 源时出错

java - 使用 OpenCV 进行椭圆检测

java - 如何使用CardLayout显示另一张卡片?

Java 2D 游戏。除了调用 addnotify 之外,还能做什么?

java - Jsp 上的 Struts2-菜单

python - 有没有一种方法可以遍历 pyspark 数据框并在没有显式 session key 的情况下识别 session ?

apache-spark - Databricks SQL 和 Spark SQL 有什么区别?

java - 从 Flex/AIR 或 Java Web 应用程序执行外部 EXE

apache-spark - 在 Spark Streaming 中使用 updateStateByKey() 从原始事件流生成状态更改流

apache-spark - 如何从 Cassandra 表加载元组?