pypi中的pyspark3.x仅限于hadoop2.7.4

9gm1akwq  于 2021-05-27  发布在  Hadoop
关注(0)|答案(0)|浏览(161)

我想 pip install pyspark 但我唯一的选择是用hadoop2.7.4依赖项编译的pypi版本。我需要一个hadoop3.x版本,因为2.7.4对于现代awss3集成来说太旧了。
有人知道为什么没有选择吗 pip install pyspark 支持Hadoop3.x?
是我唯一的选择 pyspark 从源头上?

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题