无法从cmd form spark目录运行pyspark

deikduxw  于 2021-06-01  发布在  Hadoop
关注(0)|答案(1)|浏览(348)

我已经在windows10系统中安装了spark1.6(为hadoop2.6预先构建的)版本,并且我已经正确地设置了环境变量。当我运行pyspark时,我得到了这个错误消息。
不过,我可以从spark目录运行“python”命令并返回正确的版本。
有人能帮我解决这个问题吗?

3yhwsihp

3yhwsihp1#

当您运行python时,它直接进入python命令行,但是对于pyspark,您必须执行pyspark可执行文件,该文件不在这个位置。你在试着 C:\spark 但是pyspark文件存在于这个位置 C:\spark\bin\pyspark 所以你需要去这个地方试着运行Pypark。

相关问题