在运行spark程序.enableHiveSupport()
访问Hive时,报java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.错误,如下图:
解决办法:
- 下载对应的hadoop版本包到本地
- 配置hadoop的环境变量
- 把hadood.dll和winutils.exe复制到
C:\Windows\System32
目录下 - 重启
在运行spark程序.enableHiveSupport()
访问Hive时,报java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.错误,如下图:
解决办法:
C:\Windows\System32
目录下