遇到的问题:
在Window10下配置完Spark遇到了一个很烦心的问题,在Windows PowerShell下使用Pyspark,只能在当前目录下.\pysark启动。
直接敲命令会提示系统找不到路径:
但我确实设置了环境变量:
解决办法:
后来发现是因为环境变量设置的顺序问题,原因是之前安装了Anaconda3并且环境变量设置在了Spark环境变量的前面,里面也安装了pyspark,由于没有依赖环境不能直接启动,直接就返回“系统找不到路径”的提示。上移Spark环境变量就可以解决。