注:下文的所有操作都在admin节点进行
1、准备三台虚拟机,其中一台作为admin节点,另外两台作为osd节点,并相应地用hostname命令将主机名修改为admin,osd0,osd1,最后修改/etc/hosts文件如下所示
127.0.0.1 localhost
10.10.102.85 admin
10.10.102.86 osd0
10.10.102.87 osd1
2、配置免密码访问
ssh-keygen //一直按回车即可,产生公钥私钥对
ssh-copy-id -i /root/.ssh/id_rsa.pub osd0 //将本地公钥复制到osd0机器上,实现免密码访问
ssh-copy-id -i /root/.ssh/id_rsa.pub osd1
3、安装ceph-deploy
apt-get install ceph-deploy
4、创建集群目录并进入
mkdir my-cluster
cd my-cluster
5、创建集群,会在当前目录下看到ceph.conf ceph.log ceph.mon.keyring三个文件
ceph-deploy new admin
6、安装CEPH
ceph-deploy install admin osd0 osd1
但是使用这条命令的时候总是特别慢,而且会出问题,我总是在每个节点apt-get install ceph的.....
7、加一个Ceph集群监视器,在admin节点创建即可
ceph-deploy mon create admin
8、收集秘钥,目录下会多出ceph.bootstrap-mds.keyring ceph.client.admin.keyring ceph.client.admin.keyring这几个文件
ceph-deploy gatherkeys admin
9、增加2个OSD,为了快速安装,为每个Ceph OS守护进程使用单个目录而非单个磁盘
ssh osd0
sudo mkdir /tmp/osd0
exit ssh osd1
sudo mkdir /tmp/osd1
exit
10、准备osd
ceph-deploy osd prepare osd0:/tmp/osd0 osd1:/tmp/osd1
11、激活osd
ceph-deploy osd activate osd0:/tmp/osd0 osd1:/tmp/osd1
12、将配置文件和管理密钥复制到管理节点和Ceph节点,下次再使用ceph命令界面时就无需指定集群监视器地址,执行命令时也无需每次都指定ceph.client.admin.keyring
ceph-deploy admin osd0 osd1
13、检查集群健康状况
ceph health
但是这时返回的不是健康状态,而是HEALTH_WARN 192 pgs degraded; 192 pgs stuck unclean,这时再另外添加一个osd节点即可
14、扩展集群,在admin节点添加一个osd,然后ceph health就能返回HEALTH_OK的状态了
mkdir /tmp/osd2
ceph-deploy osd prepare admin:/tmp/osd2
ceph-deploy osd activate admin:/tmp/osd2