Spark on YARN执行任务driver端报错:
: Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources
查了下网上出现这个问题的原因挺多的,下面记录下我遇到的情况:
1、先讲下基本配置
spark deployMode是client
本地服务器启动spark driver的版本是3.2.0
配置的版本是3.1.1
问题就出现在这了,driver版本与archive版本不一致导致的报错。猜测可能是版本不一致,driver和executor的有些接口发生了变化?这个后面有时间再具体研究。
2、解决方法:
修改archive的版本与driver端一致即可