start-all.sh:未找到命令我该怎么解决这个问题?

js5cn81o  于 2021-05-27  发布在  Hadoop
关注(0)|答案(1)|浏览(1242)

我尝试使用这个教程link安装hadoop(在出现问题的视频上加时间戳)
但是,在格式化namenode(hdfs namenode-format)之后,我没有在/中得到“name”文件夹。另外start-all.sh和其他/sbin命令也不起作用。
p、 我确实试着把hadoop安装成一个单节点,但是这个节点不起作用,所以我试着把它删除,把所有的东西都重新设置成一个双节点,所以我不得不重新格式化namenode..我不知道这是否影响了它。
编辑1:我修复了start-all.sh命令不起作用的问题,因为我更正了.bashrc中的错误。但是,我在运行start-all.sh或start-dfs.sh等时收到这些错误消息。
hadoop@linux-virtual-machine:~$start-dfs.sh在[localhost]localhost:mkdir:cannot create directory“/usr/local/hadoop-2.10.0/logs”:权限被拒绝localhost:chown:cannot access“/usr/local/hadoop-2.10.0/logs”:没有这样的文件或目录localhost:starting namenode,登录到/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-namenode-linux-virtual-machine.out localhost:/usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh:第159行:/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-namenode-linux-virtual-machine.out:没有这样的文件或目录localhost:head:无法打开'/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-namenode linux virtual machine.out'读取:没有这样的文件或目录localhost:/usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh:第177行:/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-namenode-linux-virtual-machine.out:没有这样的文件或目录localhost:/usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh:第178行:/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-namenode-linux-virtual-machine.out:没有这样的文件或目录localhost:mkdir:无法创建目录“/usr/local/hadoop-2.10.0/logs”:权限被拒绝localhost:chown:无法访问“/usr/local/hadoop-2.10.0/logs”:没有这样的文件或目录目录localhost:正在启动datanode,登录到/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-datanode-linux-virtual-machine.out localhost:/usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh:第159行:/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-datanode-linux-virtual-machine.out:没有这样的文件或目录localhost:head:无法打开'/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-datanode-linux virtual-machine.out'读取:没有这样的文件或目录localhost:/usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh:第177行:/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-datanode-linux-virtual-machine.out:没有这样的文件或目录localhost:/usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh:第178行:/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-datanode-linux-virtual-machine.out:没有这样的文件或目录启动辅助名称节点[0.0.0.0]无法建立主机“0.0.0.0(0.0.0)”的真实性。ecdsa密钥指纹是sha256:a37thjjrrw+aldso9xrocbhzsfcy0/ogyet7wczvbb0。是否确实要继续连接(是/否)?否0.0.0.0:主机密钥验证失败。
编辑2:修复了上面的错误我改变对hadoop文件夹的权限(在我的例子中hadoop-2.10.0和hadoop)start-all.sh工作得很好,但是namenode没有出现。

qni6mghb

qni6mghb1#

不清楚你是怎么安排你的工作的 PATH 变量。或者脚本如何不“工作”。是吗 chmod +x 让它们成为可执行文件?任何来自它们的日志输出?
这个 start-all 脚本在 sbin 下载hadoop的目录,所以 /path/to/sbin/start-all.sh 是你真正需要的。
是的,namenode需要在新集群上格式化。使用官方的apache指南是最新的源代码,对大多数人来说都很好。
否则,我建议您了解apacheamabri,它可以自动安装。或者只使用cloudera提供的沙盒,或者使用hadoop已有的许多docker容器,如果您不想完全“安装”它的话。

相关问题