当我使用 DATE_FORMAT 作为 12 月 31 日的日期时
2018 年变成了 2019 年。有人可以帮忙说这是一个错误还是我遗漏了什么。
import org.apache.spark.sql.functions._
spark.sql("select CAST(1546268400 AS TIMESTAMP)").show(false)
输出: 2018-12-31 15:00:00.0
spark.sql("select DATE_FORMAT(CAST(1546268400 AS TIMESTAMP), 'MM/dd/YYYY HH:mm')").show(false)
输出: 12/31/ 2019 15:00
最佳答案
所以这并不能完全回答你的问题,而是使用 YYYY
对比 yyyy
在这里似乎至关重要。实际上仍在调查,但这也可能有助于您弄清楚。
更新:
https://github.com/davedelong/calendar_fallacies/issues/26YYYY
的区别和 yyyy
是 ISO_Week 年与日历年。
关于scala - Date_format 转换将 1 年添加到边界日期,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54496878/