由于要对物理机器要做IP规划,所有物理机统一做到35网段,对于ceph集群来说,是有一定工作量的。 前提条件,ceph集群正常。原来的所有集群在44网段.mon地址是172.17.44.22
在44网段的时候操作
[root@node1 ~]# monmaptool --print /tmp/monmap monmaptool: monmap file /tmp/monmapepoch 5fsid c4898b1c-7ac1-406d-bb5d-d3c7980de438last_changed 2014-09-16 14:13:56.379001created 0.0000000: 172.17.44.22:6789/0 mon.node1[root@node1 ~]# monmaptool --rm node1 /tmp/monmap monmaptool: monmap file /tmp/monmapmonmaptool: removing node1monmaptool: writing epoch 5 to /tmp/monmap (0 monitors)[root@node1 ~]# monmaptool --add node1 172.17.35.241:6789 /tmp/monmap monmaptool: monmap file /tmp/monmapmonmaptool: writing epoch 5 to /tmp/monmap (1 monitors)[root@node1 ~]# monmaptool --print /tmp/monmap monmaptool: monmap file /tmp/monmapepoch 5fsid c4898b1c-7ac1-406d-bb5d-d3c7980de438last_changed 2014-09-16 14:13:56.379001created 0.0000000: 172.17.35.241:6789/0 mon.node1
完成后需要修改所有机器的配置文件:
[global]filestore_xattr_use_omap = truemon_host = 172.17.44.22:6789osd_journal_size = 1024mon_initial_members = node1auth_supported = nonefsid = c4898b1c-7ac1-406d-bb5d-d3c7980de438
将mon_host = 172.17.44.22:6789 修改为mon_host = 172.17.35.241:6789 因为osd在启动的时候,需要知道谁是mon,如果不修改,ceph -s 查询不知道状态正常的ceph的osd
然后全部重启这些服务器,修改机器的VLAN划分。能够SSH到这些机器后说明IP修改正确,但是还需要修改/etc/hosts.因为我们的有些操作是使用的/etc/hosts的别名。
接下来操作
1.首先,确保停止所有的监视器。注入必须在守护进程不运行时完成。
2.注入mon映射。
ceph-mon -i node1 --inject-monmap /tmp/monmap
3.重启监视器。
在这步之后,迁移到新的位置完成,监视器应该能够成功运行。
查看状态,[root@node1 ~]# ceph -s cluster c4898b1c-7ac1-406d-bb5d-d3c7980de438 health HEALTH_OK monmap e6: 1 mons at {node1=172.17.35.241:6789/0}, election epoch 1, quorum 0 node1 osdmap e248: 3 osds: 3 up, 3 in pgmap v33907: 192 pgs: 192 active+clean; 219 MB data, 3559 MB used, 1170 GB / 1173 GB avail; 3993B/s wr, 0op/s mdsmap e5969: 1/1/1 up {0=a=up:active}
客户端挂载:
[root@admin-node ~]# mount -t ceph 172.17.35.241:6789:/ /data[root@admin-node ~]# df -hFilesystem Size Used Avail Use% Mounted on/dev/mapper/VolGroup-lv_root 50G 1.3G 46G 3% /tmpfs 2.0G 0 2.0G 0% /dev/shm/dev/sda1 477M 74M 374M 17% /boot/dev/mapper/VolGroup-lv_home 405G 71M 385G 1% /home172.17.35.241:6789:/ 1.2T 3.5G 1.2T 1% /data[root@admin-node ~]# cd /data