这个问题,困绕了团队一段时间,
因为暂时没有用到master的外网网络,
没有引起重视,但总归要解决。
上周五,刚好有点小空,就深入调查了一下。
最后,定位到了问题点:k8s master节点的flannel,
网络连接比node节点要多一个数量及,
消耗的内存比普通节点要高,
当超过flannel yaml文件中定位的资源配额时,
就有可能发生重启。
之前的限额cpu和内存为100m, 50Mi。
改成如下之后,搞定问题。当然,还要持续观察。
"resources": {
"limits": {
"cpu": "200m",
"memory": "200Mi"
},
"requests": {
"cpu": "200m",
"memory": "200Mi"
}
},