ceph作为目前最火的开源分布式存储,支持对象,块,文件存储。把每个需要管理的数据流(比如文件)切分成多个固定大小的对象数据,并以其原子单元作为存取。 一ceph的存储核心服务是rados(可靠,自动化分布式对象存储)。 二ceph集群角色有如下几个 1.若干的 Ceph OSD(对象存储守护程序),一般一块磁
Ceph常用命令 1、查看状态常用命令 # 集群状态 ceph -s ## 查看正在操作的动作 ceph -w # 查看已经创建的磁盘 rbd ls -l # 查看ceph集群 ceph osd tree # 查看ceph授权信息 ceph auth get client.admin # 移除monitor节点 ceph-deploy mon destroy lab1
01 2021全新马哥Linux云计算高薪就业实战班VIP体验课 【录播】云计算课程概览和计算机基础知识(56分钟) 免费试学 【录播】计算机服务器硬件组成(78分钟) 免费试学 【录播】计算机硬件组成(78分钟) 免费试学 【录播】操作系统基础(105分钟) 免费试学 【录播】CentOS和Ubunt
ceph 分布式存储搭建 2020-5-9 操作系统: centos 7 x86_64 环境介绍: 192.168.25.40 ceph-master 管理节点 192.168.25.41 ceph-node-01 监控节点 192.168.25.42 ceph-node-02 osd节点 192.168.25.43 ceph-node-03 osd节点 https://www.cnblogs.com/zengzhihua/p/9829472.ht
kubernetes集群中ceph集群使用 一:CephFS 创建和使用 CephFS 允许用户挂载一个兼容posix的共享目录到多个主机,该存储和NFS共享存储以及CIFS共享目录相似 1.filesystem 配置 [root@master ~]# cd /tmp/rook/cluster/examples/kubernetes/ceph [root@master ceph]# sed -i 's/
在非monitor节点安装ceph客户端可以配置操作ceph集群 1、首先查看操作系统版本,最后和ceph集群版本一致 lsb_release -a uname -r 2、ceph集群安装(前期准备)在每一台客户端机器上设置一遍 3、安装ceph 在monitor的管理节点上,在创建的ssh免密登录用户下执行(在hosts上添加客户端hos
1. Ceph rbd 与 rgw的寻址(rbd块/对象存储文件的下载) 1.1. 索引的存储1.2. rbd 的寻址1.3. 小笔记1.4. rgw的寻址1.5. 数据恢复思路 1.5.1. 场景1.5.2. 思路 1. Ceph rbd 与 rgw的寻址(rbd块/对象存储文件的下载) 1.1. 索引的存储 ceph的索引都存储在omap中 rbd – 每个rb
1. 版本说明2. 前期准备 2.1. 创建keyring2.2. 创建pool2.3. 安装依赖包 3. glance 对接 3.1. glance-api.conf 4. 对接nova 4.1. libvirt配置4.2. nova conf配置 5. 对接cinder 5.1. /etc/cinder/cinder.conf5.2. virsh secret(所有计算节点)5.3. 配置cinder type 6. 测试 6
1. 概述2. 前提条件3. 版本说明4. 安装 4.1. 配置yum源4.2. 安装软件 5. 配置6. 使用7. 部署问题 7.1. nfs挂载之后无法创建文件、文件夹 8. 剩下的问题9. 参考文档 1. 概述 cephfs直接使用不变,需要安装较多的依赖,相对来说nfs更加通用。 FSAL_CEPH 调用 libcephfs2 将 NFS 转
存储发展史 企业中使用存储按照其功能,使用场景,一直在持续发展和迭代,大体上可以分为四个阶段: DAS:Direct Attached Storage,即直连存储,第一代存储系统,通过SCSI总线扩展至一个外部的存储,磁带整列,作为服务器扩展的一部分; NAS:Network Attached Storage,即网络附加存储,通过网络协议如NFS
文章目录 Ceph集群与Ceph块存储实验环境准备方案为虚拟机添加磁盘:所有主机设置防火墙和SELinux(如果已经关闭,则此步骤可以忽略)配置无密码连接(包括自己远程自己也不需要密码),在node1操作。修改/etc/hosts并同步到所有主机。修改所有节点都需要配置YUM源,并同步到所有主机。给
记一次K8s排错实战 这是我参与更文挑战的第3天,活动详情查看: 更文挑战 转载https://juejin.cn/post/6969571897659015205 一 背景 收到测试环境集群告警,登陆K8s集群进行排查。 二 故障定位 2.1 查看pod 查看kube-system node2节点calico pod异常 查看详细信息,查看node2节点没
将前面删除的osd磁盘,重新初始化并重新加入到ceph集群当中。 清空已删除磁盘中的内容 输入命令: wipefs -af /dev/sdd zap该磁盘 ceph-volume lvm zap /dev/sdd [ceph: root@ceph-mon1 /]# ceph-volume lvm zap --help usage: ceph-volume l
背景 企业级存储中,SSD+HDD的混合盘是一种典型应用场景,可以兼顾成本、性能与容量。 但网易数帆存储团队经过测试(4k随机写)发现,加了NVMe SSD做Ceph的WAL和DB后,性能提升不足一倍且NVMe盘性能余量较大。所以我们希望通过瓶颈分析,探讨能够进一步提升性能的优化方案。 测试环境 Ce
1.1 ceph 特点 高性能 高可用性 高可扩展性 特性丰富 1.2 架构 对象(object): 原生API 块 (block): 支持精简配置、快照、克隆 文件 (File): Posix接口 , 支持快照 1.3 核心组件 Monitor : 一个Ceph集群需要多个Monitor组成的小集群,它们通过Paxos同步数据,用 来保存OSD的元
osd的扩容和换盘 横向扩容(扩容节点) 扩展mds: 需要将扩容的节点上安装ceph所需要的包,然后将节点加入到集群中,在新节点安装ceph,ceph版本必须与原集群版本一致 yum -y install ceph rpm -qa | egrep -i “ceph|rados|rbd” ceph -v 管理节点复制配置文件和密钥到新增节点 [roo
1. 使用 ceph osd tree 查看 , 2. 开始尝试将 osd.3 替换掉,将osd 设置为down。 先将osd.3 设置为 down 状态,下面命令必须在osd.3 所在的主机上执行。 systemctl stop ceph-osd@3.service 3. 执行 Ceph osd out osd.3 这样 reweight 设置为0
OSD OSD启动流程 OSD状态变化 HeartBeat心跳检查 CRUSH算法 IO流程 OSD消息处理总结 OSD线程模型 MISC OSD中的tick线程 OSD中的线程池和工作队列 PG Peering Recovery Backfill PG状态转移 PG分裂 PG重平衡 快照和克隆 MON Paxos 数据同步 MON线程模型 网络通讯 综合
关于Redis集群部署和持久化的相关问题 Q1:请问Redis集群假如用三台物理机做,每台运行2个实例,如何保障每台物理机的实例不是互为主从的? A1 : 这个问题其实我们通常情况下大家也都会遇到。第一点如果你是使用物理机来做,并且你每台机器上面运行两个实例,三台机器每个机器上面运行2个实例,
去年推出的一个博客系列记录了红帽在 Dell EMC 服务器上对红帽 Ceph 存储性能进行的广泛测试。 这项工作也在性能和规模调整指南中进行了描述,并得到了戴尔科技公司和英特尔公司的支持,评估了影响红帽 Ceph 存储性能的许多因素,包括: 确定固定大小集群的最大性能将集群扩展到超过
S3cmd(s3cmd)是免费的命令行工具和客户端,用于在Amazon S3和其他使用S3协议的云存储服务提供商(例如Google Cloud Storage或DreamHost DreamObjects)中上载,检索和管理数据。最适合熟悉命令行程序的高级用户。它也是批处理脚本和自动备份到S3(由cron等触发)的理想选择。 S3cmd用Python编写
Ceph Dashboard介绍 Ceph 的监控可视化界面方案很多----grafana、Kraken。但是从Luminous开始,Ceph 提供了原生的Dashboard功能,通过Dashboard可以获取Ceph集群的各种基本状态信息。 (nautilus版) 需要安装 ceph-mgr-dashboard ceph nautilus dashboard 已经具有一些管理功
目录一、osd扩容1.1 osd横向扩容(scale out)1.2 osd纵向扩容(scale up)1.2.1 清理磁盘数据1.2.2 加入新的osd1.2.3 确认ods已扩容1.3 ceph osd数据重新分布1.3.1 临时关闭rebalance1.3.2 开启rebalance二、osd缩容2.1 剔除osd节点 一、osd扩容 1.1 osd横向扩容(scale out) 简单理解,横向
第一步:在/root/ceph 目录下执行(第一个节点) ceph-deploy purge ceph01 ceph02 ceph03 ceph04 ceph-deploy purgedata ceph01 ceph02 ceph03 ceph04 ceph-deploy forgetkeys rm -rf ceph.* 第二步:在/root 目录下执行(节点1、节点2、节点3、节点4): result_VG=`vgdisplay | grep "
如果团队不是实在搞不定ceph的话,个人建议,现阶段不建议k8s的后端存储使用glusterfs. 因为问题比较多. 首先说明一下,glusterfs这种无中心架构,节点之间采用全互联模式的,也就意味着通信带宽消耗要求会比master/slave这种高很多. 另外glusterfs更加适合做冷数据存储集群,也就是一些重