java.sql.sqlexception:错误2007(int09):过时的jar

1mrurvl1  于 2021-06-07  发布在  Kafka
关注(0)|答案(1)|浏览(562)

我对斯帕克和Kafka还不熟悉。我们有一个集成Kafka+Spark+hbase(与Phoenix城)的要求。
错误:
线程“main”java.sql.sqlexception中出现异常:错误2007(int09):过时的jar。以下服务器需要将更新的phoenix.jar放在hbase的类路径中:
我最后犯了上述错误。如果有人能帮你解决这个问题。
下面是错误日志:
jdbc:phoenix:localhost.localdomain:2181:/hbase不安全
testlocalhost.localdomain:6667
18/03/05 16:18:52信息度量:初始化度量系统:phoenix
18/03/05 16:18:52警告metricsconfig:找不到配置:尝试了hadoop-metrics2-phoenix.properties,hadoop-metrics2.properties 18/03/05 16:18:52信息metricssystemimpl:计划的快照周期为10秒。18/03/05 16:18:52信息度量系统实现:phoenix度量系统启动18/03/05 16:18:52信息连接管理器$hconnectionimplementation:关闭主协议:masterservice 18/03/05 16:18:52信息连接管理器$hconnectionimplementation:关闭zookeeper会话ID=0x161f6fc5e4800a3 18/03/05 16:18:52信息zookeeper:会话:0x161f6fc5e4800a3关闭18/03/05 16:18:52 info clientcnxn:事件线程关闭线程“main”中的异常java.sql.sqlexception:错误2007(int09):过期的jars。以下服务器需要将更新的phoenix.jar放在hbase的类路径中:region=system.catalog,,1519831518459.b16e566d706c6846992eba74844a444.,hostname=localhost,16020152028812066,seqnum=59位于org.apache.phoenix.exception.sqlexceptioncode$factory$1.newexception(sqlexceptioncode。java:476)位于org.apache.phoenix.exception.sqlexceptioninfo.buildexception(sqlexceptioninfo。java:150)在org.apache.phoenix.query.connectionqueryservicesimpl.checkclientservercompatibility(connectionqueryservicesimpl。java:1272)在org.apache.phoenix.query.connectionqueryservicesimpl.ensuretablecreated(connectionqueryservicesimpl。java:1107)在org.apache.phoenix.query.connectionqueryservicesimpl.createtable(connectionqueryservicesimpl。java:1429)位于org.apache.phoenix.schema.metadataclient.createtableinternal(metadataclient。java:2574)在org.apache.phoenix.schema.metadataclient.createtable(metadataclient。java:1024)在org.apache.phoenix.compile.createtablecompiler$2.execute(createtablecompiler。java:212)在org.apache.phoenix.jdbc.phoenixstatement$2.call(phoenixstatement。java:358)在org.apache.phoenix.jdbc.phoenixstatement$2.call(phoenixstatement。java:341)在org.apache.phoenix.call.callrunner.run(callrunner。java:53)在org.apache.phoenix.jdbc.phoenixstatement.executeStation(phoenixstatement)上。java:339)在org.apache.phoenix.jdbc.phoenixstatement.executeupdate(phoenixstatement)上。java:1492)在org.apache.phoenix.query.connectionqueryservicesimpl$12.call(connectionqueryservicesimpl。java:2437)在org.apache.phoenix.query.connectionqueryservicesimpl$12.call(connectionqueryservicesimpl。java:2382)在org.apache.phoenix.util.phoenixcontextexecutor.call(phoenixcontextexecutor。java:76)在org.apache.phoenix.query.connectionqueryservicesimpl.init(connectionqueryservicesimpl。java:2382)在org.apache.phoenix.jdbc.phoenixdriver.getconnectionqueryservices(phoenixdriver。java:255)在org.apache.phoenix.jdbc.phoenixembeddeddriver.createconnection(phoenixembeddeddriver。java:149)在org.apache.phoenix.jdbc.phoenixdriver.connect(phoenixdriver。java:221)在java.sql.drivermanager.getconnection(drivermanager。java:664)在java.sql.drivermanager.getconnection(驱动管理器)。java:270)在com.spark.kafka.phoenixjdbcclient.getconnection(phoenixjdbcclient。scala:41)在com.spark.kafka.phoenixjdbcclient.currenttableschema(phoenixjdbcclient。scala:595)在com.spark.kafka.sparkhbaseclient$.main(sparkhbaseclient。scala:47)在com.spark.kafka.sparkhbaseclient.main(sparkhbaseclient.scala)18/03/05 16:18:52信息sparkcontext:从关闭挂钩调用stop(),18/03/05 16:18:52信息sparkui:在http://192.168.1.103:4040 18/03/05 16:18:53信息mapoutputtrackermasterendpoint:mapoutputtrackermasterendpoint已停止!18/03/05 16:18:53信息内存存储:内存存储已清除18/03/05 16:18:53信息块管理器:块管理器已停止18/03/05 16:18:53信息块管理器主程序:块管理器主程序已停止18/03/05 16:18:53信息输出CommitCoordinator$输出CommitCoordinator终结点:输出CommitCoordinator已停止!18/03/05 16:18:53信息sparkcontext:已成功停止sparkcontext 18/03/05 16:18:53信息shutdownhookmanager:已调用shutdownhook 18/03/05 16:18:53信息shutdownhookmanager:删除目录/tmp/spark-c8dd26fc-74dd-40fb-a339-8c5dda36b973
我们使用的是带有hdp-2.6.3.0及以下组件的amabri server 2.6.1.3:
hbase-1.1.2版
Kafka-0.10.1
Spark-2.2.0
Phoenix
下面是我为hbase和phoenix添加的pom工件。

<dependency>
            <groupId>org.apache.hbase</groupId>
            <artifactId>hbase-client</artifactId>
            <version>1.3.1</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hbase</groupId>
            <artifactId>hbase-common</artifactId>
            <version>1.3.1</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hbase</groupId>
            <artifactId>hbase-protocol</artifactId>
            <version>1.3.1</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hbase</groupId>
            <artifactId>hbase-server</artifactId>
            <version>1.3.1</version>
        </dependency>

        <dependency>
            <groupId>org.apache.phoenix</groupId>
            <artifactId>phoenix-spark</artifactId>
            <version>4.10.0-HBase-1.2</version>
        </dependency>
        <dependency>
ivqmmu1c

ivqmmu1c1#

请尝试以下操作

1.将phoenix服务器jar复制到所有hbase区域服务器(hbase lib文件夹)
2.重启hbase主机

相关问题