在hiveudf中使用java和hadoop类型的区别

1rhkuytd  于 2021-05-29  发布在  Hadoop
关注(0)|答案(0)|浏览(205)

在编写一个简单的hiveudf时,可以同时使用标准java和hadoop类型 evaluate() 方法。例如,以下方法应该返回相同的结果。
使用字符串输入和输出类型:

public String evaluate(String input) {
  if(input == null) return null;
  return input.toUpperCase();
}

使用文本输入和输出类型:

public Text evaluate(Text input) {
  if(input == null) return null;
  return new Text(input.toString().toUpperCase());
}

我的问题是使用其中一个和另一个有什么好处?如果我使用标准的java输入和输出类型(比如string),hadoop只是简单地将这些对象转换成hadoop类型吗?

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题