java - Spark Sql 不支持日期格式

标签 java apache-spark

我尝试将日期文件与 sparkSql 一起使用,但它不起作用

例如 javaSparkSqlExample

我尝试添加 datecoloumn dob

在我添加的Person类中

作为日期的 dob 的 setter 和 getter

当尝试执行时

SELECT dob,name,age,count(*) as totalCount FROM Person WHERE dob >= '1995-01-01' AND age <= '2014-02-01';

还尝试在查询中使用 between also 而不是 <= & >= as well

/Volumes/Official/spark-1.0.2-bin-hadoop2$: bin/spark-submit --class "SimpleApp" --master local[4] try/simple-project/target/simple-project-1.0.jar 
Spark assembly has been built with Hive, including Datanucleus jars on classpath
2014-08-21 11:42:47.360 java[955:1903] Unable to load realm mapping info from SCDynamicStore
=== Data source: RDD ===
Exception in thread "main" scala.MatchError: class java.util.Date (of class java.lang.Class)

最佳答案

它仍然处于待定状态,而不是 Date 您可以在 Person 类中使用 Timestamp SPARK-2552

Spark SQL currently supports Timestamp, but not Date.

我们将不得不等待一段时间,直到 1.2.0 版本。

详细信息:

  • 类型:改进改进
  • 状态:开放
  • 优先级:次要
  • 决议:未解决
  • 影响版本:1.0.1
  • 修复版本:无
  • 组件:SQL
  • 目标版本:1.2.0

关于java - Spark Sql 不支持日期格式,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25419412/

相关文章:

java - 如何正确转义 JSP 标签中的三重嵌套引号

带有继承的java静态初始化

scala - Spark - 从具有嵌套文件夹的目录中获取特定数据类型的所有文件名

amazon-s3 - AWS EMR Spark 保存到 S3 的速度非常慢

apache-spark - 在数据帧上使用partitionBy时出现dataproc警告

sql - Spark Scala : Getting Cumulative Sum (Running Total) Using Analytical Functions

java - Openstack 计算节点未显示为管理程序

java - MethodInterceptor 中的依赖注入(inject)

java - 从 Java 执行 CURL - 正确的方法是什么?

Scala Spark-非法开始定义