如何在pyspark shell中添加numpy

jm2pwxwz  于 2021-07-12  发布在  Spark
关注(0)|答案(0)|浏览(110)

我想运行这个简单的代码(program.py)

import numpy as np

但它总是说:找不到模块。
一些背景:
我尝试过创建包含numpy模块的zip:

python -m venv pyspark_venv
source pyspark_venv/bin/activate
pip install -t deps numpy
cd deps
zip -r deps .

那就跑吧
spark submit--py files deps.zip program.py
不过,上面说没有找到模块。
我真的被困在这个任何帮助和指针表示感谢。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题