部署方式
Kubernetes 有多种部署方式,目前主流的方式有:minikube、kubeadm、二进制包等。
在生产环境 Kubernetes 集群主要有两种方式:
1. kubeadm
Kubeadm 是一个 K8s 部署工具,提供 kubeadm init 和 kubeadm join,用于快速部署 Kubernetes 集群。
官方地址:
https://kubernetes.io/docs/reference/setup-tools/kubeadm/kubeadm/
2. 二进制包
从 github 下载发行版的二进制包,手动部署每个组件,组成 Kubernetes 集群。
Kubeadm 降低部署门槛,但屏蔽了很多细节,遇到问题很难排查。如果想更容易可控,推荐使用二进制包部署 Kubernetes 集群,虽然手动部署麻烦点,期间可以学习很多工作原理,也利于后期维护。
3 kubeadm 部署方式介绍
kubeadm 是官方社区推出的一个用于快速部署 kubernetes 集群的工具,这个工具能通过两条指令完成一个 kubernetes 集群的部署:
- 创建一个 Master 节点 kubeadm init
- 将 Node 节点加入到当前集群中$ kubeadm join <Master 节点的IP 和端口
4 部署要求
在开始之前,部署 Kubernetes 集群机器需要满足以下几个条件:
- 一台或多台机器,操作系统 CentOS7.x-86_x64
- 硬件配置:2GB 或更多 RAM,2 个 CPU 或更多 CPU,硬盘 30GB 或更多
- 集群中所有机器之间网络互通
- 可以访问外网,需要拉取镜像
- 禁止 swap 分区
5 最终目标
- 在所有节点上安装 Docker 和 kubeadm
- 部署 Kubernetes Master
- 部署容器网络插件
- 部署 Kubernetes Node,将节点加入 Kubernetes 集群中
- 部署 Dashboard Web 页面,可视化查看 Kubernetes 资源
6 准备环境
本文采用三节点进行部署,mini1 代表 Master 节点,mini2、mini3 代表 node 节点。
7 环境初始化
下面 2.6.1 - 2.6.11 章节的执行步骤在三台机器上全部执行,截图只展示 mini1的内容!!!
7.1 检查操作系统的版本
# 此方式下安装 kubernetes 集群要求 Centos 版本要在 7.5 或之上
[root@mini1 ~]# cat /etc/redhat-release
CentOS Linux release 7.6.1810 (Core)
7.2 主机名解析
在 hosts 文件配置 IP 地址映射
# 主机名成解析 编辑三台服务器的/etc/hosts文件,添加下面内容
192.168.244.131 mini1
192.168.244.132 mini2
192.168.244.133 mini3
7.3 时间同步
kubernetes 要求集群中的节点时间必须精确一直,这里使用 chronyd 服务从网络同步时间
企业中建议配置内部的会见同步服务器
chronyd 安装教程如下:
# 启动chronyd服务
[root@mini1 ~]# yum install -y chrony
[root@mini1 ~]# systemctl start chronyd
[root@mini1 ~]# systemctl enable chronyd
[root@mini1 ~]# date
7.4 禁用 iptable 和 firewalld 服务
kubernetes和docker 在运行的中会产生大量的iptables规则,为了不让系统规则跟它们混淆,直接关闭系统的规则
# 1 关闭firewalld服务
[root@mini1 ~]# systemctl stop firewalld
[root@mini1 ~]# systemctl disable firewalld
# 2 关闭iptables服务
[root@mini1 ~]# systemctl stop iptables
[root@mini1 ~]# systemctl disable iptables
7.5 禁用 selinux
selinux 是 linux 系统一下的一个安全服务,如果不关闭它,在安装集群中会产生各种各样的奇葩问题
# 编辑 /etc/selinux/config 文件,修改SELINUX的值为disable
# 注意修改完毕之后需要重启linux服务
SELINUX=disabled
7.6 禁用 swap 分区
swap 分区值是虚拟内存分区,它的作用是物理内存使用完之后将磁盘空间虚拟成内存来使用,启用 swap 设备会对系统的性能产生非常负面的影响,因此 kubernetes 要求每个节点都要禁用 swap 设备,但是如果因为某些原因确实不能关闭 swap 分区,就需要在集群安装过程中通过明确的参数进行配置说明
# 编辑分区配置文件/etc/fstab,注释掉swap分区一行
# 注意修改完毕之后需要重启linux服务
vim /etc/fstab
注释掉 /dev/mapper/centos-swap swap
# /dev/mapper/centos-swap swap
7.7 修改 linux 的内核参数
# 修改 linux 的内核采纳数,添加网桥过滤和地址转发功能
# 编辑/etc/sysctl.d/kubernetes.conf文件,添加如下配置:
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
# 重新加载配置
[root@mini1 ~]# sysctl -p
# 加载网桥过滤模块
[root@mini1 ~]# modprobe br_netfilter
# 查看网桥过滤模块是否加载成功
[root@mini1 ~]# lsmod | grep br_netfilter
7.8 配置 ipvs 功能
在 Kubernetes 中 Service 有两种模型,一种是基于 iptables 的,一种是基于 ipvs 的,两者比较的话,ipvs的性能明显要高一些,但是如果要使用它,需要手动载入ipvs模块
# 1.安装ipset和ipvsadm
[root@mini1 ~]# yum install ipset ipvsadmin -y
# 2.添加需要加载的模块写入脚本文件
[root@mini1 ~]# cat <<EOF> /etc/sysconfig/modules/ipvs.modules
#!/bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack_ipv4
EOF
# 3.为脚本添加执行权限
[root@mini1 ~]# chmod +x /etc/sysconfig/modules/ipvs.modules
# 4.执行脚本文件
[root@mini1 ~]# /bin/bash /etc/sysconfig/modules/ipvs.modules
# 5.查看对应的模块是否加载成功
[root@mini1 ~]# lsmod | grep -e -ip_vs -e nf_conntrack_ipv4
# 6.重启服务
[root@mini1 ~]# reboot
7.9 安装docker
# 1、切换镜像源
[root@mini1 ~]# wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo
# 2、查看当前镜像源中支持的docker版本
[root@mini1 ~]# yum list docker-ce --showduplicates
# 3、安装特定版本的docker-ce
# 必须制定--setopt=obsoletes=0,否则yum会自动安装更高版本
[root@mini1 ~]# yum install --setopt=obsoletes=0 docker-ce-18.06.3.ce-3.el7 -y
# 4、添加一个配置文件
#Docker 在默认情况下使用 Vgroup Driver 为 cgroupfs,而 Kubernetes推荐使用 systemd 来替代 cgroupfs
[root@mini1 ~]# mkdir /etc/docker
[root@mini1 ~]# cat <<EOF> /etc/docker/daemon.json
{
"exec-opts": ["native.cgroupdriver=systemd"],
"registry-mirrors": ["https://kn0t2bca.mirror.aliyuncs.com"]
}
EOF
# 5、启动 dokcer
[root@mini1 ~]# systemctl restart docker
[root@mini1 ~]# systemctl enable docker
7.10 安装Kubernetes组件
# 1、由于 kubernetes 的镜像在国外,速度比较慢,这里切换成国内的镜像源
# 2、添加下面的配置
[root@mini1 ~]# cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF
# 3、安装kubeadm、kubelet和kubectl
[root@mini1 ~]# yum install -y kubectl-1.17.4-0 kubeadm-1.17.4-0 kubelet-1.17.4-0
# 4、配置kubelet的cgroup
#vim /etc/sysconfig/kubelet, 添加下面的配置
KUBELET_CGROUP_ARGS="--cgroup-driver=systemd"
KUBE_PROXY_MODE="ipvs"
# 5、设置kubelet开机自启
[root@mini1 ~]# systemctl enable kubelet
7.11 准备集群镜像
# 在安装 kubernetes 集群之前,必须要提前准备好集群需要的镜像,所需镜像可以通过下面命令查看
[root@mini1 ~]# kubeadm config images list
# 下载镜像
# 此镜像 kubernetes 的仓库中,由于网络原因,无法连接,下面提供了一种替换方案
[root@mini1 ~]# images=(
kube-apiserver:v1.17.4
kube-controller-manager:v1.17.4
kube-scheduler:v1.17.4
kube-proxy:v1.17.4
pause:3.1
etcd:3.4.3-0
coredns:1.6.5
)
[root@mini1 ~]# for imageName in ${images[@]};do
docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName
docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName k8s.gcr.io/$imageName
docker rmi registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName
done
使用 docker images 查看一下下载的镜像。
7.12 集群初始化
下面的操作只需要在 mini1 节点上执行即可
# 创建集群
[root@mini1 ~]# kubeadm reset init \
--kubernetes-version v1.17.4 \
--pod-network-cidr=10.244.0.0/16 \
--service-cidr=10.96.0.0/12 \
--apiserver-advertise-address=192.168.244.131
上面的步骤执行完后,当看到如下截图,证明 kubernetes 控制面板已经初始化成功!
紧接着,在 mini1 主节点执行下面的操作
# 创建必要文件
[root@mini1 ~]# mkdir -p $HOME/.kube
[root@mini1 ~]# sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
[root@mini1 ~]# sudo chown $(id -u):$(id -g) $HOME/.kube/config
下面的操作只需要在 mini2,mini3 node 节点上执行即可
# 1.先在主节点 mini1 生成 token,然后复制生成的token
[root@mini1 ~]# kubeadm token create --print-join-command
#2.查询一下其他 node 节点端口是否占用
[root@mini2 ~]# lsof -i:10250
[root@mini3 ~]# lsof -i:10250
#3. 杀死占用的端口进程
[root@mini2 ~]# kill -9 xx
[root@mini3 ~]# kill -9 xx
#4.复制 mini1 生成的 token 在mini2、mini3 节点执行
# 5 在 mini1 master 节点上查看节点信息
[root@mini1 ~]# kubectl get nodes
截图如下:上面执行的那些命令的含义是将 mini2,mini3 node 节点添加到主节点中
从上述截图,我们可以看到 mini1、mini2、mini3 三个节点的网络状态都是 NotReady 状态,还不能通信,所以我们需要安装网络插件进行节点间通信。
7.13 安装网络插件
只在 mini1 节点操作即可,插件使用的是DaemonSet 控制器,它会在每个节点上运行。
(1)下载 kube-flannel.yml 文件
wget https://github.com/flannel-io/flannel/tree/master/Documentation/kube-flannel.yml
(2)将文件导出来,修改文件中 quay.io 仓库为 quay-mirror.qiniu.com
(3)使用配置文件启动 fannel
kubectl apply -f kube-flannel.yml
(4)查看集群状态是否已经是Ready, 若是Ready,则执行 2.7 操作。如不是 执行后面几步
# 查看集群状态
[root@mini1 ~]# kubectl get nodes
(5) 查看pod运行状态
# 生成 新的token
[root@mini1 ~]# kubectl get pod -n kube-system -o wide
发现 flannel 状态为 Init:ImagePullBackOff,根据此教程进行修改
https://www.cnblogs.com/pyxuexi/p/14288591.html
等待它安装完毕 发现已经是 集群的状态已经是 Ready
8 集群测试
8.1 创建一个nginx服务
kubectl create deployment nginx --image=nginx:latest -alpine
8.2 暴露端口
kubectl expose deploy nginx --port=80 --target-port=80 --type=NodePort
8.3 查看服务
kubectl get pod
kubectl get svc
8.4 查看 pod
在浏览器登录创建的 Nginx 服务,查看是否成功。
192.168.244.131:30886