hadoop3.1.2:jps output在执行start-all.sh之后只列出jps

vngu2lb8  于 2021-05-29  发布在  Hadoop
关注(0)|答案(2)|浏览(383)

我是hadoop新手,在ubuntu 16.04上以独立模式安装了hadoop 3.1.2。当我尝试使用start-all.sh启动守护程序时,命令会说它正在启动不同的守护程序。然而,当我与jps核对时,除了jps之外没有别的了

(sparkVenv) applied@nadeem-Inspiron-5558:~$ start-all.sh
WARNING: Attempting to start all Apache Hadoop daemons as applied in 10 seconds.
WARNING: This is not a recommended production deployment configuration.
WARNING: Use CTRL-C to abort.
Starting namenodes on [nadeem-Inspiron-5558]
Starting datanodes
Starting secondary namenodes [nadeem-Inspiron-5558]
Starting resourcemanager
Starting nodemanagers
(sparkVenv) applied@nadeem-Inspiron-5558:~$ jps
21729 Jps
(sparkVenv) applied@nadeem-Inspiron-5558:~$

下面是namenode日志的一部分

************************************************************/

2019-05-06 15:36:43116 info org.apache.hadoop.hdfs.server.namenode.namenode:为[term,hup,int]注册的unix信号处理程序
2019-05-06 15:36:43252信息org.apache.hadoop.hdfs.server.namenode.namenode:createnamenode[]
2019-05-06 15:36:43515 info org.apache.hadoop.metrics2.impl.metricsconfig:从hadoop-metrics2.properties加载的属性
2019-05-06 15:36:43635 info org.apache.hadoop.metrics2.impl.metricssystemimpl:计划的度量快照周期为10秒。
2019-05-06 15:36:43636 info org.apache.hadoop.metrics2.impl.metricssystemimpl:namenode metrics系统已启动
2019-05-06 15:36:43671 info org.apache.hadoop.hdfs.server.namenode.namenodeutils:fs.defaultfs是文件:///
2019-05-06 15:36:43816错误org.apache.hadoop.hdfs.server.namenode.namenode:无法启动namenode。
java.lang.illegalargumentexception:namenode地址的uri无效(检查fs.defaultfs):文件:///没有权限。
在org.apache.hadoop.hdfs.dfsutilclient.getnnaddress(dfsutilclient。java:697)
位于org.apache.hadoop.hdfs.dfsutilclient.getnnaddresschecklogical(dfsutilclient)。java:726)
在org.apache.hadoop.hdfs.dfsutilclient.getnnaddress(dfsutilclient。java:688)
在org.apache.hadoop.hdfs.server.namenode.namenode.getrpcserveraddress(namenode。java:529)
位于org.apache.hadoop.hdfs.server.namenode.namenode.loginasnamenodeuser(namenode)。java:660)
在org.apache.hadoop.hdfs.server.namenode.namenode.initialize(namenode。java:680)
在org.apache.hadoop.hdfs.server.namenode.namenode。java:937)
在org.apache.hadoop.hdfs.server.namenode.namenode。java:910)
在org.apache.hadoop.hdfs.server.namenode.namenode.createnamenode(namenode。java:1643)
在org.apache.hadoop.hdfs.server.namenode.namenode.main(namenode。java:1710)
2019-05-06 15:36:43819 info org.apache.hadoop.util.exitutil:正在退出,状态为1:java.lang.illegalargumentexception:namenode address的uri无效(检查fs.defaultfs):文件:///没有权限。
2019-05-06 15:36:43821 info org.apache.hadoop.hdfs.server.namenode.namenode:关机\u消息:
/************************************************************
shutdown\u msg:正在关闭nadeem-inspiron-5558/127.0.1.1上的namenode

************************************************************/

kqhtkvqz

kqhtkvqz1#

发现core-site.xml和hdfs-site.xml为空。
添加了在中提到的配置https://hadoop.apache.org/docs/r3.2.0/hadoop-project-dist/hadoop-common/singlecluster.html 在伪分布式模式下,格式化namenode。
之后,守护进程开始执行start-all.sh

wd2eg0qa

wd2eg0qa2#

您已经在日志中遇到问题,您的namenode由于core-site.xml“fs.defaultfs”配置中的问题而无法启动。
希望这有帮助。

相关问题