hadoop - 如何在配置单元 udf 中使用 collect_set 的结果 - 评估方法?

标签 hadoop hive udf

Hive 查询 -

select ...MYUDF(collect_set(col1))..from tableN

这里的 col1 是字符串类型。我想对传递的 collect_set 数据执行某些逻辑。 对于用户定义的函数,我正在扩展类 UDF 并使用评估方法。当数组从配置单元传递时,评估方法的签名 应该是什么。我想从 UDF 返回字符串数组。

public **<returnType>** evaluate(**<collect as what>**)
{
}

最佳答案

ArrayList<Text> ( import java.util.ArrayList )

关于hadoop - 如何在配置单元 udf 中使用 collect_set 的结果 - 评估方法?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42834961/

相关文章:

python - Hive UDF with Python - 在 shell 上打印异常

java - Hive JSON SerDe -- ClassCastException : java. lang.Integer 无法转换为 java.lang.Double

apache-spark - 出现OutofMemoryError-GC开销限制超出pyspark中的限制

hadoop2 在没有 yarn 和 mapreduce 的情况下构建 hdfs

apache-spark - 将环境变量传递给 YARN 容器

hadoop - map 缩小:最坏的情况

ubuntu - 设置单节点hadoop时,没有要启动的namenode

json - HQL返回ISO时间戳

hadoop - Sqoop 从 Hive 导出到 Teradata 时间戳格式必须是 yyyy-mm-dd hh :mm:ss[. ffffffff]

Pig UDF 中的 Java 依赖项