scala - 在应用agg函数之前如何将十进制值限制为2位数?

标签 scala apache-spark apache-spark-sql apache-spark-1.5

我正在关注 this来自堆栈溢出帖子之一的解决方案,我在这里唯一的要求是如何在应用 df.agg(sum()) 之前将要求和的值限制为小数点后 2 位数字功能?

例如:我有如下值,并且 sum 函数将它相加,

2.346
1.549

但是我希望这些值在小数点后四舍五入到 2 位,例如
2.35
1.55

在总结之前。我该怎么做?我找不到像 sum().round 这样的子函数功能sum .

注意:我使用的是 Spark 1.5.1 版本。

最佳答案

您可以使用 bround :

val df = Seq(2.346, 1.549).toDF("A")
df.select(bround(df("A"), 2)).show
+------------+
|bround(A, 2)|
+------------+
|        2.35|
|        1.55|
+------------+


df.agg(sum(bround(df("A"), 2)).as("appSum")).show
+------------------+
|            appSum|
+------------------+
|3.9000000000000004|
+------------------+
                                          ^
df.agg(sum(df("A")).as("exactSum")).show
+--------+
|exactSum|
+--------+
|   3.895|
+--------+

关于scala - 在应用agg函数之前如何将十进制值限制为2位数?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41705575/

相关文章:

scala - 在 main 和 test 中重复包对象

scala - 在给定时间戳下以星火打开文件

scala - 如何将一个数据帧的聚合状态共享到另一个数据帧?

scala - 找不到spark-sql中的聚合函数

apache-spark - 求pyspark数组的均值<double>

scala:选项元组上的复杂 flatMap

scala - 过滤 RDD 时为 "Item does not take parameters"- scala、Apache Spark

exception - 我可以避免在使用 catching(...) 时多余地 throw Throwable 吗?

shell - 设置hadoop用户通过oozie shell操作启动spark-submit

scala - 从可变长度 CSV 到对 RDD 的 Spark 转换