ICode9

精准搜索请尝试: 精确搜索
  • Ceph分布式存储详述2021-07-29 16:03:13

    存储发展史 企业中使用存储按照其功能,使用场景,一直在持续发展和迭代,大体上可以分为四个阶段: DAS:Direct Attached Storage,即直连存储,第一代存储系统,通过SCSI总线扩展至一个外部的存储,磁带整列,作为服务器扩展的一部分; NAS:Network Attached Storage,即网络附加存储,通过网络协议如NFS

  • 如何将下线的OSD磁盘,重新初始化上线使用2021-07-18 15:01:00

    将前面删除的osd磁盘,重新初始化并重新加入到ceph集群当中。  清空已删除磁盘中的内容           输入命令:           wipefs -af /dev/sdd zap该磁盘 ceph-volume lvm zap /dev/sdd    [ceph: root@ceph-mon1 /]# ceph-volume lvm zap --help usage: ceph-volume l

  • 分布式存储之ceph2021-07-11 23:02:31

    1.1 ceph 特点 高性能 高可用性 高可扩展性 特性丰富 1.2 架构 对象(object): 原生API 块 (block): 支持精简配置、快照、克隆 文件 (File): Posix接口 , 支持快照 1.3 核心组件 Monitor : 一个Ceph集群需要多个Monitor组成的小集群,它们通过Paxos同步数据,用 来保存OSD的元

  • ceph运维2021-07-08 22:59:43

    osd的扩容和换盘 横向扩容(扩容节点) 扩展mds: 需要将扩容的节点上安装ceph所需要的包,然后将节点加入到集群中,在新节点安装ceph,ceph版本必须与原集群版本一致 yum -y install ceph rpm -qa | egrep -i “ceph|rados|rbd” ceph -v 管理节点复制配置文件和密钥到新增节点 [roo

  • CEPH 中移除或替换一个损坏的OSD2021-07-07 15:34:41

    1. 使用 ceph osd tree 查看 ,   2. 开始尝试将 osd.3  替换掉,将osd 设置为down。     先将osd.3 设置为 down 状态,下面命令必须在osd.3 所在的主机上执行。     systemctl stop ceph-osd@3.service          3. 执行 Ceph osd out osd.3  这样 reweight 设置为0

  • Ceph RADOS汇总2021-07-05 22:04:11

    OSD OSD启动流程 OSD状态变化 HeartBeat心跳检查 CRUSH算法 IO流程 OSD消息处理总结 OSD线程模型 MISC OSD中的tick线程 OSD中的线程池和工作队列 PG Peering Recovery Backfill PG状态转移 PG分裂 PG重平衡 快照和克隆 MON Paxos 数据同步 MON线程模型 网络通讯 综合

  • OSD的状态转化2021-07-02 12:33:48

    目录简介STATE_PREBOOTOSD::start_boot在OSD::init中调用在OSD::tick中调用在OSD::ms_handle_connect中调用在OSD::_committed_osd_maps中调用STATE_BOOTINGSTATE_STOPPINGSTATE_ACTIVESTATE_WAITING_FOR_HEALTHY总结 简介 本文基于Luminous版本,分析一下OSD各状态的含义和状态转化

  • OSD启动流程分析2021-06-22 02:01:27

    目录简介pre_initinit主要流程对OSDMap的处理对pg的处理final_init总结 简介 OSD作为Ceph的核心组件,承担着数据的存储,复制,恢复等功能。本文基于Luminous版本通浅析OSD的初始化流程,了解OSD的主要功能、主要数据结构和其他组件的配合情况等。OSD守护进程的启动流程在ceph_osd.cc中的

  • Ceph之osd扩容和换盘2021-06-20 21:05:08

    目录一、osd扩容1.1 osd横向扩容(scale out)1.2 osd纵向扩容(scale up)1.2.1 清理磁盘数据1.2.2 加入新的osd1.2.3 确认ods已扩容1.3 ceph osd数据重新分布1.3.1 临时关闭rebalance1.3.2 开启rebalance二、osd缩容2.1 剔除osd节点 一、osd扩容 1.1 osd横向扩容(scale out) 简单理解,横向

  • promox 配置 ceph2021-06-17 19:06:00

    1.点击 ceph 安装 ceph   2. 在机器上运行   pveceph install   3.加入已有的Cluster information 信息可以从 Cluster 中获取    创建OSD  

  • Ceph主要概念2021-06-10 15:29:40

    目录   1      整体架构介绍 1.1      总体介绍 1.2      整体架构 2      集群管理 2.1      Monitor 2.2      心跳管理 3      数据读写 3.1      OSD 3.2      读写流程 3.3      POOL和PG 3.4      CRUSH算法 3.4

  • 实战 | 在Docker里运行Ceph2021-05-29 07:04:28

     韩佳瑶 分布式实验室 Ceph是一个完全开源的分布式存储方案、网络块设备以及文件系统,具有高稳定性、高性能、高扩展性等特点,可应对terabyte到exabyte级别的数据量。通过使用创新性的调度算法(CRUSH)、主动存储节点、以及peer-to-peer的gossip协议,Ceph规避了传统集中控制和lookup t

  • SDNLAB技术分享(十七):Ceph在云英的实践2021-05-27 17:04:05

    编者按:本文系SDNLAB技术分享系列,我们希望通过SDNLAB提供的平台传播知识,传递价值,欢迎加入我们的行列。分享嘉宾杨冠军,CloudIn云英研发工程师。专注存储领域十余年,曾就职于EMC、华为等国内外知名大型存储公司,有十分丰富的存储实践经验,研究Ceph一年多,对其架构原理、性能调优、服务监控

  • 手动解决pg分布不均衡2021-05-22 19:01:52

    从Luminous v12.2.z开始,OSDMap中有一个新的pg-upmap异常表,允许集群将特定的PG显式映射到特定的OSD。   ceph features #查看ceph特征 ceph osd set-require-min-compat-client luminous --yes-i-really-mean-it #设置集群仅支持 Luminous(或者L之后的)客户端   ceph osd getmap

  • Ceph put 操作与 Volumes 结合使用2021-05-20 23:04:00

    Ceph put 操作 ceph osd pool create mypool 32 32 rados put day.jpg /usr/share/backgrounds/day.jpg -p mypool rados ls -p mypool ceph osd map mypool day.jpg Ceph 与 Volumes 结合使用 mkdir /data/volumes -p cd /data/volumes ceph osd pool create kubernetes 8 c

  • EasyScreenLive同屏功能组件支持自定义OSD2021-05-20 19:02:17

    假日出游,为什么显示有票你却抢不到?揭秘12306如何保证车票不超卖的关键技术!>>> 经过这么多年的视频技术开发,TSINGSEE青犀视频团队已经有了一套自己的研发体系,除了大家比较熟知的视频智能分析平台外,其实TSINGSEE青犀视频还有很多好用的SDK及工具。其中EasyScreenLive就是我们研发的

  • BlueStore checksum机制2021-05-16 07:01:44

    BlueStore checksum机制1.checksum的计算2.checksum的验证 BlueStore 磁盘静默数据损坏分析 fsck过程中发现磁盘数据静默错误 clone操作 read操作 write操作 Gc操作 实际场景1.腾讯场景问题确认2.rbd mirror3.rbd export import4.集群扩容 BlueStore checksum机制 Bluestore的che

  • @ceph 分布式存储2021-05-13 23:58:39

    文章目录 分布式存储ceph一、ceph介绍1.1、ceph是什么1.2什么是块存储、文件存储、对象存储1.2.1 备知识: 块级与文件级1.2.2 块存储、文件存储、对象存储(1)简述块存储、文件存储,对象存储(2)块存储、文件存储、对象存储的关系(3)细说块存储、文件存储、对象存储 1.3为何要

  • 详解Ceph系统数据是如何布局的?2021-05-11 14:06:32

    Ceph项目始于2004年,是为优秀的性能、可靠性和可扩展性而设计的统一的分布式存储系统。在使用RADOS系统时,客户端程序通过与OSD或者Monitor的交互获取ClusterMap,然后直接在本地进行计算,得出对象的存储位置后,便直接与对应的OSD通信,完成数据的各种操作。可见,在此过程中,只要保证ClusterM

  • 收藏了,硬盘、RAID组与Ceph的IOPS公式与工具2021-05-10 11:54:59

    机械硬盘7200硬盘IOPS = 1000/(3 + 1000*(7200/60)/2) = 14010k硬盘IOPS = 1000/(3 + 60000/10000/2) = 16715k硬盘IOPS = 1000/(3 + 60000/15000/2) = 200其中3为寻道延迟,7200/10k/15k为转速(rpm),1000*(7200/60)/2为旋转延迟(旋转延迟一般用转一圈所需时间的1/2表示),结果为理论峰值,实

  • 激动人心!Ceph新长支持稳定版本Luminous(12.x.x)有那些新功能2021-05-10 11:53:55

    通用功能:目前,Ceph拥有一个操作简单,基于Web的内置仪表板,用于监控群集状态。(Ceph Dashboard具体可以参阅Ceph官网中文文档:Ceph luminous 新功能之内置dashboard)RADOS:BlueStore:ceph-osd的新后端存储BlueStore已经稳定,是新创建的OSD的默认设置。 BlueStore通过直接管理物理HDD或SSD而

  • Ceph 心跳机制详解2021-05-07 12:51:50

    1. 心跳介绍心跳是用于节点间检测对方是否故障的,以便及时发现故障节点进入相应的故障处理流程。问题:故障检测时间和心跳报文带来的负载之间做权衡。心跳频率太高则过多的心跳报文会影响系统性能。心跳频率过低则会延长发现故障节点的时间,从而影响系统的可用性。故障检测策略应该能

  • 17 个 Ceph 日常运维常见难点和故障的解决办法 | 运维进阶2021-05-01 23:52:28

    【导读】Ceph 日常运维中有几类常见问题,社区日前组织Ceph领域专家进行了线上的答疑交流,对社区会员提出的部分典型问题进行了分享解答,以下是分享内容,希望能为大家提供答案和一些参考。Ceph是一个可靠地、自动重均衡、自动恢复的分布式存储系统,根据场景划分可以将Ceph分为三大块,分别

  • Ceph 集群安装配置命令2021-04-30 21:35:14

    # 主节点安装基础环境 rpm -ivh http://mirrors.aliyun.com/ceph/rpm-mimic/el7/noarch/ceph-release-1-1.el7.noarch.rpm # 所有节点执行 yum install ceph-deploy python-setuptools python2-subprocess32 ceph-common -y mkdir /root/ceph-cluster && cd /root/ceph-cluster

  • Ceph核心组件2021-04-20 11:02:21

    ObjectCeph最底层的存储单元是Object对象,每个Object包含元数据和原始数据。OSDOSD全称Object Storage Device,也就是负责响应客户端请求返回具体数据的进程。一个Ceph集群一般都有很多个OSD。PGPG全称Placement Grouops,是一个逻辑的概念,一个PG包含多个OSD。引入PG这一层其实是为了更

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有