ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

Ceph集群维护笔记

2022-05-30 14:03:50  阅读:210  来源: 互联网

标签:volume ceph -- 笔记 Ceph 集群 dev lvm osd


1. 更换故障盘

1. 1 查看故障盘osd id

ceph osd tree

1.2 销毁osd

ceph osd destroy 60 --yes-i-really-mean-it

#ceph osd purge 60 --yes-i-really-mean-it
#destroy可以保留osd id;purge不保留osd id

1.3 更换故障硬盘

1.4 查看新硬盘盘符

lsblk

1.5 擦除新硬盘

ceph-volume lvm zap /dev/sdg --destroy

1.6 预备&替换原osd

ceph-volume lvm prepare --osd-id 60 --bluestore --data /dev/sdg

#ceph-volume lvm prepare --bluestore --data /path/to/device
#ceph-volume lvm prepare --filestore --data volume_group/lv_name --journal /dev/sdh
#ceph-volume lvm prepare --filestore --data volume_group/lv_name --journal volume_group/journal_lv

1.7 查看osd fsid

cat /var/lib/ceph/osd/ceph-60/fsid

1.8 激活osd

ceph-volume lvm activate 60 78341e1b-3cdf-466f-bdec-fc5b09192e35
ceph-volume lvm list

# 也可以使用ceph-volume lvm create分配新ID创建osd(合并6/7/8步骤)

2. 扩容osd节点

scp master01:/etc/yum.repos.d/ceph_stable.repo /etc/yum.repos.d/ceph_stable.repo
scp master01:/etc/ceph/ceph.conf /etc/ceph
scp master01:/etc/ceph/ceph.client.admin.keyring /etc/ceph
scp master01:/var/lib/ceph/bootstrap-osd/ceph.keyring /var/lib/ceph/bootstrap-osd

yum install -y ceph-osd

ceph-volume lvm zap /dev/sdb --destroy
ceph-volume lvm zap /dev/sdc --destroy
ceph-volume lvm zap /dev/sdd --destroy
ceph-volume lvm zap /dev/sde --destroy

ceph-volume lvm create --data /dev/sdb --bluestore --block.db /dev/sdf  --block.wal /dev/sdg --block.db-size 20G --block.wal-size 20G
ceph-volume lvm create --data /dev/sdc --bluestore --block.db /dev/sdf  --block.wal /dev/sdg --block.db-size 20G --block.wal-size 20G
ceph-volume lvm create --data /dev/sdd --bluestore --block.db /dev/sdf  --block.wal /dev/sdg --block.db-size 20G --block.wal-size 20G
ceph-volume lvm create --data /dev/sde --bluestore --block.db /dev/sdf  --block.wal /dev/sdg --block.db-size 20G --block.wal-size 20G

3. 缩容osd节点

3.1 停止所有osd服务

systemctl stop ceph-osd@13.server
systemctl stop ceph-osd@14.server
systemctl stop ceph-osd@15.server
systemctl stop ceph-osd@16.server

3.2 销毁所有osd

ceph osd purge 13 --yes-i-really-mean-it
ceph osd purge 14 --yes-i-really-mean-it
ceph osd purge 15 --yes-i-really-mean-it
ceph osd purge 16 --yes-i-really-mean-it

3.3 擦除磁盘数据

ceph-volume lvm zap --osd-id 13 --destroy
ceph-volume lvm zap --osd-id 14 --destroy
ceph-volume lvm zap --osd-id 15 --destroy
ceph-volume lvm zap --osd-id 16 --destroy

3.4 清除crush数据

ceph osd crush tree
ceph osd crush rm node03

3.5 删除osd应用

yum remove -y ceph-osd ceph-common

4. 调整PG

Total PGs = ((Total_number_of_OSD * 100) / max_replication_count) / pool_count, 结算的结果往上取靠近2的N次方的值。

ceph osd lspools
ceph osd pool get pool1 all
ceph osd pool set pool1 pg_num 2048
ceph osd pool set pool1 pgp_num 2048

5. 报警提示:1 daemons have recently crashed

ceph crash ls-new
ceph crash info
ceph crash archive-all

标签:volume,ceph,--,笔记,Ceph,集群,dev,lvm,osd
来源: https://www.cnblogs.com/wang-hongwei/p/16326509.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有