java - Hive GenericUDF 错误 - RuntimeException typeInfo 不能为 null

标签 java hadoop hive runtimeexception

在 Amazon EMR、Hive 0.11 上运行,我正在尝试使用 GenericUDF 类创建一个简单的 UDF。我想用 UDF 做的是简单地从列中获取一个值,然后将它打印回屏幕。重点是看看我是否可以在构建更复杂的东西之前让这个工作。

我编译 jar,加载到配置单元中,并创建一个临时函数。

add jar ..../GenericTest.jar;
create temporary function gen_test as 'GenericTest';

当我使用错误数量的参数运行该函数时,我得到了预期的错误:

SemanticException [Error 10015]: Line 1:13 Arguments length mismatch 'gen_test': Wrong # of Args

但是,当我向它传递正确数量的参数时,它立即失败并显示消息:

FAILED: RuntimeException typeInfo cannot be null!

到目前为止,我一直无法找到这个问题的根源。该UDF的代码如下。

import org.apache.hadoop.hive.ql.exec.Description; 
import org.apache.hadoop.hive.ql.exec.UDFArgumentException; 
import org.apache.hadoop.hive.ql.exec.UDFArgumentLengthException;
import org.apache.hadoop.hive.ql.exec.UDFArgumentTypeException; 
import org.apache.hadoop.hive.ql.metadata.HiveException; 
import org.apache.hadoop.hive.ql.udf.generic.GenericUDF; 
import org.apache.hadoop.hive.ql.udf.generic.GenericUDFUtils; 
import org.apache.hadoop.hive.serde2. objectinspector.ObjectInspector;


public class GenericTest extends GenericUDF {

  private GenericUDFUtils.ReturnObjectInspectorResolver returnOIResolver;
  private ObjectInspector[] argumentOIs;

  public ObjectInspector initialize(ObjectInspector[] arguments) throws UDFArgumentException {
     argumentOIs = arguments;
     if (arguments.length != 1) {
       throw new UDFArgumentLengthException("Wrong # of Args");
     }

        if (arguments[0].getCategory() != ObjectInspector.Category.PRIMITIVE)
        throw new UDFArgumentTypeException(0, "Only primitive type arguments are accepted");

     returnOIResolver = new GenericUDFUtils.ReturnObjectInspectorResolver(true);

     return returnOIResolver.get();
  }

  public Object evaluate(DeferredObject[] arguments) throws HiveException {
    Object retVal = returnOIResolver.convertIfNecessary(arguments[0].get(), argumentOIs[0]);
    return retVal;
  }

  public String getDisplayString(String[] children){
    String rt = "get Display String test";
    return rt;
  }

}

最佳答案

如果你想尝试基本的:你可以使用这个

package yarn;

import org.apache.hadoop.hive.ql.exec.UDFArgumentException;
import org.apache.hadoop.hive.ql.exec.UDFArgumentLengthException;
import org.apache.hadoop.hive.ql.exec.UDFArgumentTypeException;
import org.apache.hadoop.hive.ql.metadata.HiveException;
import org.apache.hadoop.hive.ql.udf.generic.GenericUDF;
import org.apache.hadoop.hive.ql.udf.generic.GenericUDFUtils;
import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector;

public class GenericUDFNvl extends GenericUDF {
private GenericUDFUtils.ReturnObjectInspectorResolver returnOIResolver;
private ObjectInspector[] argumentOIs;
@Override
public ObjectInspector initialize(ObjectInspector[] arguments)
throws UDFArgumentException {
 argumentOIs = arguments;
 if (arguments.length != 2) {
 throw new UDFArgumentLengthException(
 "The operator 'NVL' accepts 2 arguments.");
 }
 returnOIResolver = new GenericUDFUtils.ReturnObjectInspectorResolver(true);
 if (!(returnOIResolver.update(arguments[0]) && returnOIResolver
 .update(arguments[1]))) {
 throw new UDFArgumentTypeException(2,
 "The 1st and 2nd args of function NLV should have the same type, "
 + "but they are different: \"" + arguments[0].getTypeName()
 + "\" and \"" + arguments[1].getTypeName() + "\"");
 }
 return returnOIResolver.get();
 }
 @Override
 public Object evaluate(DeferredObject[] arguments) throws HiveException {
    // TODO Auto-generated method stub
    Object retVal = returnOIResolver.convertIfNecessary(arguments[0].get(),
            argumentOIs[0]);
            if (retVal == null ){
            retVal = returnOIResolver.convertIfNecessary(arguments[1].get(),
            argumentOIs[1]);
            }
            return retVal;


}
@Override

    public String getDisplayString(String[] children) {
        StringBuilder sb = new StringBuilder();
        sb.append("if ");
        sb.append(children[0]);
        sb.append(" is null ");
        sb.append("returns");
        sb.append(children[1]);
        return sb.toString() ;
        }

public static void main(String[] args) {

}
}

如果你的第一个参数不为空,你必须传递两个参数,然后它会打印第一个参数,如果第一个参数为空,那么它会打印第二个参数

select nvl(movie_title,"test") from u_item_test1; 

如果存在 movie_tittle 则显示那个 movie_tittle ,如果不存在则打印 test

关于java - Hive GenericUDF 错误 - RuntimeException typeInfo 不能为 null,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25918156/

相关文章:

java - 通过使用配置单元查询是否可以将表数据转换为复杂类型的list <structure>?

hadoop - 使用 Hive 从文件中收集数据

java - 如何在 Mac 中使用 Command-c/Command-v 快捷方式复制/粘贴文本?

hadoop - 使用 amazon s3 作为输入、输出并将中间结果存储在 EMR map reduce 作业中

scala - 使用spark.sql的任何表的选择查询有时给出零记录,但是在HIVE CLI中给出相同结果的选择查询

hadoop - Impala 的 ORC 文件格式

java - Cloudera Hadoop-守护程序未运行

java - TLSv1.3 - 现在在 Java 8 中可用吗?

java - 如何在二维中使用字符串数组(String[][])并解析每个空间(指定元素点)中的数据?

java - Web 服务客户端和 SSL