我已经在windows10系统中安装了spark1.6(为hadoop2.6预先构建的)版本,并且我已经正确地设置了环境变量。当我运行pyspark时,我得到了这个错误消息。不过,我可以从spark目录运行“python”命令并返回正确的版本。有人能帮我解决这个问题吗?
3yhwsihp1#
当您运行python时,它直接进入python命令行,但是对于pyspark,您必须执行pyspark可执行文件,该文件不在这个位置。你在试着 C:\spark 但是pyspark文件存在于这个位置 C:\spark\bin\pyspark 所以你需要去这个地方试着运行Pypark。
C:\spark
C:\spark\bin\pyspark
1条答案
按热度按时间3yhwsihp1#
当您运行python时,它直接进入python命令行,但是对于pyspark,您必须执行pyspark可执行文件,该文件不在这个位置。你在试着
C:\spark
但是pyspark文件存在于这个位置C:\spark\bin\pyspark
所以你需要去这个地方试着运行Pypark。