从分布式缓存加载共享库

ehxuflar  于 2021-06-03  发布在  Hadoop
关注(0)|答案(0)|浏览(203)

我有一个共享库,我在

/user/uokuyucu/lib/libxxx.so

我有一个 WordCount.java 使用教程中的相同代码加上我自己的代码 FileInputFormat 调用的类 MyFileInputFormat 除了修改如下的构造函数外,它没有任何内容:

public MyInputFileFormat() {
            System.loadLibrary("xxx");  
}

我还在作业设置(main)中将共享库添加到分布式缓存中:

DistributedCache.addCacheFile(new URI("/user/uokuyucu/lib/libxxx.so"),           
job.getConfiguration());

我把它当作;

hadoop jar mywordcount.jar mywordcount.WordCount input output

得到了 java.lang.UnsatisfiedLinkError: no far_jni_interface in java.library.path 例外。
如何在hadoop作业中加载共享库?

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题