为什么我不能运行spark shell?

bqujaahr  于 2021-06-02  发布在  Hadoop
关注(0)|答案(0)|浏览(201)

我刚刚为mooc下载了hadoop、spark和hive。我正在通过虚拟机运行ubuntu17-10。我可以运行不同的hadoop命令,但是当我想运行“spark shell”时,我得到一个错误:

bin/spark-shell: line 57: home/dieter/spark-2.1.0-bin-hadoop2.7/bin/spark-    submit: No such file or directory

当我在bin文件夹中运行spark shell时,它会显示:

spark-shell: command not found

我用以下内容更新了.bashrc文件:

export HADOOP_HOME=home/user/hadoop-2.7.3
PATH=$HADOOP_HOME/bin:$PATH
export SPARK_HOME=home/user/spark-2.1.0-bin-hadoop2.7
PATH=$SPARK_HOME/bin:$PATH
export HIVE_HOME=home/user/apache-hive-2.1.1-bin
PATH=$HIVE_HOME/bin:$PATH

请帮帮我!提前谢谢

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题