端口8020上的hadoop连接被拒绝

bnl4lu3b  于 2021-06-01  发布在  Hadoop
关注(0)|答案(0)|浏览(331)

hadoop、hive、hdfs、spark在我的namenode上运行良好,并且能够连接到datanode。但由于某种原因,服务器关闭了,现在当我试图通过hadoop fs-ls/之类的命令访问hadoop文件系统时,或者如果我试图访问hive,端口8020上的连接被拒绝。
我可以看到cloudera scm服务器和cloudera scm代理服务运行良好。我试图检查hiveserver2、hivemetastore、hadoop hdfs等服务的状态,但是service status命令给出了一个错误消息,说明这些服务不存在。另外,我试图寻找start-all.sh,但找不到它。我运行find/-name start-all.sh命令,只出现了spark的cloudera包目录中start-all.sh的路径。
我检查了/var/log目录中的日志,对于hiveserver2,很明显服务已关闭。。其他日志不是很清楚,但我猜当服务器关机时,所有的服务都停止了。
请建议如何重新启动整个系统。我无法访问cloudera manager或ambari或网页上的任何内容。这些页面也被关闭了,我甚至不确定是否可以访问这些页面,因为我以前从未尝试过,我只在linux命令行上工作。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题