塘沽网站制作,nginx 运行wordpress,wordpress title 8211,郴州信息港问题描述在现有集群加入一个物理节点#xff0c;接着再此节点创建ceph监视器、创建OSD。从宿主机系统执行ceph osd tree查看状态#xff0c;创建起来的几个OSD状态都正常#xff08;up#xff09;#xff0c;从proxmox管理界面看也是这样。突然不知道什么原因#xff0c;…问题描述 在现有集群加入一个物理节点接着再此节点创建ceph监视器、创建OSD。从宿主机系统执行ceph osd tree查看状态创建起来的几个OSD状态都正常up从proxmox管理界面看也是这样。 突然不知道什么原因刚加入的节点就突然不能从集群中失效了。再进宿主机系统查OSD状态居然自己从up变成down。新增节点没数据于是就试试重启看能不能正常。重启以后网络能通ssh不能连接web管理界面也不能访问。接下来需要先把故障节点从集群中撤离出来恢复以后再加入集群。 从集群中删除故障节点 按操作顺序分两个步骤从集群中删除故障ceph和从集群中删除物理节点。 ü 从集群中删除故障ceph1. 登录集群任意物理正常节点系统执行如下命令查看ceph osd状态rootpve48:~# ceph osd treeID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF-1 18.00357 root default -3 4.91006 host pve48 0 hdd 1.63669 osd.0 up 1.00000 1.00000 1 hdd 1.63669 osd.1 up 1.00000 1.00000 2 hdd 1.63669 osd.2 up 1.00000 1.00000-5 4.91006 host pve49 3 hdd 1.63669 osd.3 up 1.00000 1.00000 4 hdd 1.63669 osd.4 up 1.00000 1.00000 5 hdd 1.63669 osd.5 up 1.00000 1.00000-7 4.91006 host pve50 6 hdd 1.63669 osd.6 up 1.00000 1.00000 7 hdd 1.63669 osd.7 up 1.00000 1.00000 8 hdd 1.63669 osd.8 up 1.00000 1.00000-9 3.27338 host pve51 9 hdd 1.63669 osd.9 down 0 1.0000010 hdd 1.63669 osd.10 down 0 1.00000从输出可知物理节点pve51的两个OSD有问题需要删除。2. 离线有问题的ceph osd,执行的操作如下rootpve48:~# ceph osd out osd.9osd.9 is already out.rootpve48:~# ceph osd out osd.10osd.10 is already out.操作时要仔细别把正常的osd离线了。3. 删除已经离线osd认证信息执行的操作如下rootpve48:~# ceph auth del osd.9updatedrootpve48:~# ceph auth del osd.10updated 4. 彻底删除故障osd操作如下rootpve48:~# ceph osd rm 9removed osd.9rootpve48:~# ceph osd rm 10removed osd.10注意此操作ceph最后一列参数与前边的不同是纯数字格式5. 查看集群osd状态操作如下rootpve48:~# ceph osd treeID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF-1 18.00357 root default -3 4.91006 host pve48 0 hdd 1.63669 osd.0 up 1.00000 1.00000 1 hdd 1.63669 osd.1 up 1.00000 1.00000 2 hdd 1.63669 osd.2 up 1.00000 1.00000-5 4.91006 host pve49 3 hdd 1.63669 osd.3 up 1.00000 1.00000 4 hdd 1.63669 osd.4 up 1.00000 1.00000 5 hdd 1.63669 osd.5 up 1.00000 1.00000-7 4.91006 host pve50 6 hdd 1.63669 osd.6 up 1.00000 1.00000 7 hdd 1.63669 osd.7 up 1.00000 1.00000 8 hdd 1.63669 osd.8 up 1.00000 1.00000-9 3.27338 host pve51 9 hdd 1.63669 osd.9 DNE 0 10 hdd 1.63669 osd.10 DNE 0 操作完成后故障节点的osd状态从down变成了DNE6. 删除故障节点的ceph磁盘操作如下rootpve48:~# ceph osd crush rm osd.9removed item id 9 name osd.9 from crush maprootpve48:~# ceph osd crush rm osd.10removed item id 10 name osd.10 from crush map 7. 从ceph集群中删除物理节点操作如下rootpve48:~# ceph osd crush rm pve51removed item id -9 name pve51 from crush map 8. 执行指令 ceph osd tree 查看状态看是否把故障节点从ceph集群清理出去。 ü 从集群中删除故障节点 Ø 集群上的操作登录集群中任意正常节点执行如下指令进行驱逐操作rootpve48:~# pvecm delnode pve51Killing node 4 Ø 故障机恢复操作最好全部干掉重新安装系统并用新的ip地址加入集群。