离线环境下在anaconda中的pyspark配置

时间:2022-12-12 00:26:16

已有环境:win7,anaconda(我是安装了Python3),spark-2.0.2-bin-hadoop2.7已安装,环境变量均已配置

离线环境下好像不方便直接pip install,一个方法是在路径下直接加上Python的包:

找到anaconda的安装路径:C:\Users\admin\Anaconda3,找到spark的安装路径:D:\software\spark-2.0.2-bin-hadoop2.7(视自己具体安装情况)

将D:\software\spark-2.0.2-bin-hadoop2.7\python 中的pyspark整个文件夹拷贝放进C:\Users\admin\Anaconda3\Lib\site-packages,然后编译器import pyspark.ml 无错误提示!可以运行pyspark的包啦~

--------------------------分割线---------------------

以上是一只Python初学者的亲测成功,方法虽笨却实实在在解决了我的问题,如果有什么问题欢迎留言指出,也希望有更好的办法,不然我以后可能都这么导包了(*/ω\*)