CMDB和运维自动化
一、运维
运维,指的是对已经搭建好的网络,软件,硬件进行维护。运维领域也是细分的,有硬件运维和软件运维
- 硬件运维主要包括对基础设施的运维,比如机房的设备,主机的硬盘,内存这些物理设备的维护
- 软件运维主要包括系统运维和应用运维,系统运维主要包括对OS,数据库,中间件的监控和维护,这些系统介于设备和应用之间,应用运维主要是对线上业务系统的运维
讨论的主要是软件运维的自动化,包括系统运维和应用运维的自动化
二、软件运维
传统运维
- 日常工作繁琐
日常运维工作是比较繁琐的,研发同学会经常需要到服务器上查日志,重启应用,或者是说今天上线某个产品,需要部署下环境。这些琐事是传统运维的大部分工作
- 应用运行环境不统一
在部署某应用后,应用不能访问,就会听到开发人员说,在我的环境运行很好的,怎么部署到测试环境后,就不能用了,因为各类环境的类库不统一
还有一种极端情况,运维人员习惯不同,可能凭自己的习惯来安装部署软件,每种服务器上运行软件的目录不统一
- 运维及部署效率低下
想想运维人员需要登陆到服务器上执行命令,部署程序,不仅效率很低,并且非常容易出现人为的错误,一旦手工出错,追溯问题将会非常不容易
- 无用报警信息过多
经常会收到很多报警信息,多数是无用的报警信息,造成运维人员经常屏蔽报警信
另外如果应用的访问速度出了问题,总是需要从系统、网络、应用、数据库等一步步的查找原因
- 资产管理和应用管理混乱
经常会收到很多报警信息,多数是无用的报警信息,造成运维人员经常屏蔽报警信
另外如果应用的访问速度出了问题,总是需要从系统、网络、应用、数据库等一步步的查找原因
自动化运维
针对传统运维的痛点,我们可以知道自动化运维需要支持哪些功能
运维自动化最重要的就是标准化一切
- OS的选择统一化,同一个项目使用同样的OS系统部署其所需要的各类软件
- 软件安装标准化,例如JAVA虚拟机,php,nginx,mysql等各类应用需要的软件版本,安装目录,数据存放目录,日志存放目录等
- 应用包目录统一标准化,及应用命名标准化
- 启动脚本统一目录和名字,需要变化的部分通过参数传递
- 配置文件标准化,需要变化的部分通过参数传递
- 日志输出,日志目录,日志名字标准化
- 应用生成的数据要实现统一的目录存放
- 主机/虚拟机命名标准化,虚拟机管理使用标准化模板
- 使用docker比较容易实现软件运行环境的标准化
三、CMDB
功能
- 用户管理,记录测试,开发,运维人员的用户表
- 业务线管理,需要记录业务的详情
- 项目管理,指定此项目用属于哪条业务线,以及项目详情
- 应用管理,指定此应用的开发人员,属于哪个项目,和代码地址,部署目录,部署集群,依赖的应用,软件等信息
- 主机管理,包括云主机,物理机,主机属于哪个集群,运行着哪些软件,主机管理员,连接哪些网络设备,云主机的资源池,存储等相关信息
- 主机变更管理,主机的一些信息变更,例如管理员,所属集群等信息更改,连接的网络变更等
- 网络设备管理,主要记录网络设备的详细信息,及网络设备连接的上级设备
- IP管理,IP属于哪个主机,哪个网段, 是否被占用等
CMDB实现的方式
1.Agent实现方式
Agent实现方式,可以将服务器上面的Agent程序作定时任务,定时将资产信息提交到指定API录入数据库
实现流程
1.在每台服务器上都有一个agent脚本,也就是python程序,其核心就是subprocess模块的subprocess.getoutput('命令')
2.每天定时触发subprocess.getoutput('命令'),其返回值是命令的执行结果,将其发送到API中
3.API会把收到的数据进行处理,然后再存储到db,也就是数据库中
4.用户就可以通过后台管理系统,直观的看到每台服务器的各种信息
# 优缺点
# 优点
1.执行速度快,适用于拥有超多服务器的大型公司
# 缺点
1.每台服务器都必须部署一个agent脚本
核心代码
# 通过subprocess模块,在本地端运行命令,获取信息
import subprocess
res = subprocess.getoutput('ipconfig')
# 模拟对返回数据的切分
print(res[5:6])
# request模块
import requests
# http://127.0.0.1:8000/asset/:是API的一个接口,通过request模块发送请求并携带切分后的数据,交给API,API会存入到数据库
res = requests.post('http://127.0.0.1:8000/asset/', data={"ip":res[5:6]})
2.SSH实现方式(基于Paramiko模块)
中控机通过Paramiko(py模块)登录到各个服务器上,然后执行命令的方式去获取各个服务器上的信息
实现流程
1.与agent的不同,SSH实现方式是把python代码放在了单独的的一个服务器上,这个服务器称之为中控机
2.中控机通过Paramiko模块以SSH方式链接,向服务器发送命令,然后获得其返回数据,并转交给API
3.API会把收到的数据进行处理,然后再存储到db,也就是数据库中
4.用户就可以通过后台管理系统,直观的看到每台服务器的各种信息
# 优缺点
# 优点
1.相比agent方式,不用在每台服务器上都放一份脚本
2.适用于服务器较少的场景
# 缺点
1.这种方式会限制于网络,所以速度慢
2.需要部署一台中控机
核心代码
import paramiko
# 创建SSH对象
ssh = paramiko.SSHClient()
# 允许连接不在know_hosts文件中的主机
ssh.set_missing_host_key_policy(paramiko.AutoAddPolicy())
# 连接服务器
ssh.connect(hostname='10.0.0.100', port=22, username='root', password='1')
# 执行命令
stdin, stdout, stderr = ssh.exec_command('ifconfig')
# 获取命令结果
result = stdout.read()
print(result)
# 关闭连接
ssh.close()
3.saltstack方式
通过第三方软件来实现链接服务器并执行命令
实现流程
1.该方案与第二种方案类似,但是却依靠第三方软件saltstack,saltstack有两个身份,master和minion,也就是主人和奴隶,我们可以给中控机分配master的身份来控制所有的minion服务器
2.中控机salt-master通过salt 'minion主机名' cmd.run '命令',向服务器minion发送命令,minion会把执行结果放到队列中,然后master从队列中取出数据,并转交给API
3.API会把收到的数据进行处理,然后再存储到db,也就是数据库中
4.用户就可以通过后台管理系统,直观的看到每台服务器的各种信息
# 优缺点
# 优点
1.执行速度快,开发成本低
# 缺点
1.比较依赖于第三方软件
2.需要部署一台中控机
saltstack的安装、配置及使用
master端:
# 1.安装salt-master
yum install salt-master -y
# 2.修改配置文件:/etc/salt/master
vim /etc/salt/master
interface: 10.0.0.100 # Master的IP
# 3.启动
service salt-master start
slave端:
# 1.安装salt-minion
yum install salt-minion -y
# 2.修改配置文件 /etc/salt/minion
vim /etc/salt/minion
# 单个master
master: 10.0.0.100 # master的地址
# 多个master
master:
- 10.211.55.4
- 10.211.55.5
random_master: True
id: c2.salt.com # 客户端在salt-master中显示的唯一ID
# 3.启动
service salt-minion start
# 4.使用
# master服务器上对salve进行远程操作
salt 'minion主机名' cmd.run '命令'