在编写一个简单的hiveudf时,可以同时使用标准java和hadoop类型 evaluate()
方法。例如,以下方法应该返回相同的结果。
使用字符串输入和输出类型:
public String evaluate(String input) {
if(input == null) return null;
return input.toUpperCase();
}
使用文本输入和输出类型:
public Text evaluate(Text input) {
if(input == null) return null;
return new Text(input.toString().toUpperCase());
}
我的问题是使用其中一个和另一个有什么好处?如果我使用标准的java输入和输出类型(比如string),hadoop只是简单地将这些对象转换成hadoop类型吗?
暂无答案!
目前还没有任何答案,快来回答吧!