网上查看说浭水spark-defaults.conf里面的spark.driver.extraJavaOptions -XX:PermSize=128M -XX:MaxPermSize=256M ,我改了可还是错。
日志内容如下:
3 个解决方案
#1
抱歉,由于个人能力有限,帮不了你。
#2
集群上每个节点分配的内存空间是多少,一般默认是1g。另外需要检查driver memory设置的大小
#3
driver一般是512M-1G,executor有公式可以计算。一般是核心数:内存是1:2或1:4。单个Worker节点可以分配多个Worker实例,一般是核心数/4。这些在spark-env.sh里面配置
另外你这是什么复杂模型?100条可以跑那么久。。。考虑下优化代码吧
另外你这是什么复杂模型?100条可以跑那么久。。。考虑下优化代码吧
#1
抱歉,由于个人能力有限,帮不了你。
#2
集群上每个节点分配的内存空间是多少,一般默认是1g。另外需要检查driver memory设置的大小
#3
driver一般是512M-1G,executor有公式可以计算。一般是核心数:内存是1:2或1:4。单个Worker节点可以分配多个Worker实例,一般是核心数/4。这些在spark-env.sh里面配置
另外你这是什么复杂模型?100条可以跑那么久。。。考虑下优化代码吧
另外你这是什么复杂模型?100条可以跑那么久。。。考虑下优化代码吧