ICode9

精准搜索请尝试: 精确搜索
  • ceph-volume源码分析(四)2022-01-08 11:04:05

    上一篇文章讲到self.mian最后调用terminal.dispatch(self.mapper, subcommand_args),我们先看下该函数实现: def dispatch(mapper, argv=None): argv = argv or sys.argv for count, arg in enumerate(argv, 1): if arg in mapper.keys(): instan

  • 修改crushmap实验2021-12-31 20:34:18

        CRUSH的全称是Controlled Replication Under Scalable Hashing,是ceph数据存储的分布式选择算法,也是ceph存储引擎的核心。 ceph的客户端在往集群里读写数据时,动态计算数据的存储位置。这样ceph就无需维护一个叫metadata的东西,从而提高性能。 ceph分布式存储有关键的3R: Repli

  • Ceph-OSD基本操作2021-12-29 18:04:11

    1 介绍 ​ OSD是ceph集群中的一个角色,全称为Object Storage Device,负责响应客户端请求返回具体数据的进程,一个ceph集群中一般有多个OSD。 ​ 本文章主要讲的是一些关于OSD的基本操作命令。 2 常用操作 2.1 查看OSD状态 $ ceph osd stat 3 osds: 3 up, 3 in 状态说明: ● 集群内

  • PEERING 12021-12-16 12:03:40

    1.1 acting set和up set acting set是一个PG对应副本所在的OSD列表,该列表是有序的,列表中第一个OSD为主OSD。在通常情况下,up set和acting set列表完全相同。要理解他们的不同之处,需要理解下面介绍的“临时PG”概念。 1.2 临时PG 假设一个PG的acting set为[0,1,2]列表。此时如果osd0

  • 【osd】ceph读写流程2021-12-10 10:32:49

      概述 OSD是RADOS集群的基本存储单元。 PG(placement group)从名字可理解为放置策略组,它是对象的集合,该集合里的所有对象都具有相同的放置策略:对象的副本都分布在相同的OSD列表上。一个对象只能属于一个PG,一个PG对应于放置在其上的OSD列表。一个OSD上可以分布多个PG。处理来自客

  • rook下osd的移除与加回2021-12-03 23:32:45

    rook移除osd 问题: 注意:一下数据来源于个人环境,图文可能不一致需根据实际修改IP等数据 1、ceph -s 查看报错有1个pg数据不一致,并且通过ceph osd status查看osd状态都是UP状态 2、ceph health detail 查看初步确认是pg1.25的osd 52,56以及8中有硬盘可能有坏 解决: 一、查找对

  • Ceph 存储集群第一部分:配置和部署2021-12-03 10:00:21

    内容来源于官方,经过个人实践操作整理,官方地址:http://docs.ceph.org.cn/rados/ 所有 Ceph 部署都始于 Ceph 存储集群。 基于 RADOS 的 Ceph 对象存储集群包括两类守护进程:term:对象存储守护进程( OSD )把存储节点上的数据存储为对象; term:Ceph 监视器( MON )维护集群运行图的主拷贝。

  • 【Rook】部署的一大坑2021-11-26 10:59:52

    安装官网的 guidelines 去部署 Rook,需要注意一大坑点,大部分公司内部集群有很多奇奇怪怪的开关和配置,很难一次性就部署完的,如果创建了集群,又删掉集群重新创建,记得一定要把各个节点的 /var/lib/rook/ 这个地址清理掉,另外还有就是按照 Rook 的清理指南 操作一下,否则具体的问题表

  • 分布式存储Ceph(四) Cephx认证机制2021-11-22 14:36:35

    五 cephx认证机制 https://docs.ceph.com/en/pacific/rados/configuration/auth-config-ref/   # 配置参考 https://docs.ceph.com/en/pacific/architecture/#high-availability-authentication # 高可用认证 5.1 cephx协议 ceph使用cephx协议对客户端进行身份认证。 cephx用

  • 5.1 Ceph概述2021-11-15 13:04:18

    1 Ceph介绍 (1) 存储根据其类型,可分为块存储,对象存储和文件存储。在主流的分布式存储技术中,HDFS/GPFS/GFS属于文件存储,Swift属于对象存储,而Ceph可支持块存储、对象存储和文件存储,故称为统一存储。(2) Ceph是一个分布式存储系统,诞生于2004年,最早致力于开发下一代高性能分布式文件系

  • Ceph学习全过程 基于N版2021-11-12 18:00:49

    Ceph学习全过程 1.安装ceph 1.1 ceph概述 ceph monitor 客户端从monitor进程获取整个集群得信息,一般确保是奇数个就好,所以要确保它得高可用性。 osd进程 存储数据得地方,osd会定期把状态上报给monitor,monitor也会定期检测osd。 monitor map 记录集群得状况 osd map 对象得副本

  • 【OSD】PG相关命令2021-11-10 22:02:29

    PG相关命令 要检索特定放置组的统计信息,请执行以下操作: ceph pg {pg-id} query 这里的query其实是一种元数据信息,部分形式如下: 1 { 2 "snap_trimq": "[]", 3 "snap_trimq_len": 0, 4 "state": "active+clean", 5 "epoch": 236,

  • 2021SC@SDUSC 山大智云6.分析ceph的结构2021-11-07 14:02:57

    因为后面项目的配置要用到ceph系统,所以在此分析结构 Ceph在一个统一的系统中提供对象、块和文件存储。 这是每个存储功能的特性 ceph具有高可靠、管理简单,并且是开源软件。 ceph的结构 如上图所示,对象存储功能基于RADOSGW实现,块存储基于RBD实现,文件存储基于CEPHFS实现。LIE

  • ceph学习笔记2021-11-01 09:32:59

    参考:https://mp.weixin.qq.com/s/KSdjMMXdgaMu-lt0FlnNhw ceph node 其中包含 OSD、Manager、MDS、Monitor。 OSD(ceph-osd):object storage daemon,对象存储进程。ceph 管理物理硬盘时,引入了OSD概念,每一块盘都会针对的运行一个OSD进程。换句话说,ceph 集群通过管理 OSD 来管理物理硬

  • ceph(luminous)-Bluestore,更换ssd和wal位置(不改变大小)_pyrl的博客-程序员秘密2021-10-28 14:01:50

    简介 随着业务的增长,osd中数据很多,如果db或者wal设备需要更换,删除osd并且新建osd会引发大量迁移。 本文主要介绍需要更换db或者wal设备时(可能由于需要更换其他速度更快的ssd;可能时这个db的部分分区损坏,但是db或者wal分区完好,所以需要更换),如何只更换db或者wal设备,减少数据迁移(不

  • 使用C++调用Python脚本遇到的问题总结2021-10-25 15:30:39

    问题1: PyImport_ImportModule(“脚本文件名(不带.py)”),返回NULL! 解决方案:1、脚本文件所在文件夹是否设置到了搜索路径里面,通过PyRun_SimpleString(“print sys.path”)查看。如果没有,通过PyRun_SimpleString(“sys.path.append(r’路径’)”)添加,一定要加r;一定要加r;一定要

  • ceph集群安装2021-10-24 18:32:42

    1、环境节点准备: 角色      IPmaster 192.168.77.10   系统盘:/dev/sda   数据盘:/dev/sdbnode1  192.168.77.11   系统盘:/dev/sda   数据盘:/dev/sdbnode2  192.168.77.12   系统盘:/dev/sda   数据盘:/dev/sdb 2、给虚拟机增加数据盘:             然后应用

  • Linux | Ceph | Ubuntu 中部署 Ceph 集群2021-10-19 14:32:07

    Ceph 部署 : 手动 注意事项 操作系统 ubuntu 20.4 1. 配置 Ceph APT源 echo deb http://mirrors.aliyun.com/ubuntu/ bionic main restricted universe multiverse 2. 添加 APT 源 Key wget -q -O- 'https://mirrors.tuna.tsinghua.edu.cn/ceph/keys/release.asc' | sudo apt-

  • kolla-ansible运维2021-10-08 14:00:50

    cinder-lvm后端 pvcreate /dev/sdb vgcreate cinder-volumes /dev/sdb vi /etc/kola/globals.yml ...... enable_cinder: "yes" enable_cinder_backend_iscsi: "yes" enable_cinder_backend_lvm:: "yes" cinder_volume_group: "cinder-volum

  • 【ceph】集群运维记录 - osd reweight & 节点重启2021-09-22 15:01:51

    001 - osd磁盘超过95%后集群不可读写-调整权重进行reblance #背景:三节点ceph集群某个osd打满之后>95%,影响ceph使用 #获取当前ceph集群osd信息命令: ceph osd df  #获取当前集群osd列表,权总,与使用率等信息 ceph osd tree  #获取当前集群osd 物理位置,权重等信息   #re

  • PVE Ceph 存储集群服务器配置建议2021-09-07 08:31:05

    CPU 每个 Ceph 服务分配一个 CPU 内核。 内存 对于大约 1 TiB 的数据,通常 OSD 将使用1 GiB 的内存。 Bluestore 后端守护进程默认需要 3-5 GiB 内存 (可调整)。 网络 建议使用至少 10 GbE 或更高的网络带宽 专供 Ceph 使用。 一个 HDD 可能不会使 1 Gb 链路饱和,但是每个节点可

  • Proxmox VE + Ceph 超融合项目实战(第九部分:一些常用的Ceph/OSD命令)2021-08-31 15:01:24

    参考:https://blog.51cto.com/u_14742102/3499271 九、一些常用的Ceph/OSD命令 1)常见命令查看Ceph/OSD状态 root@pve-node1:~# ceph df root@pve-node1:~# ceph osd df root@pve-node1:~# ceph status root@pve-node1:~# ceph osd stat root@pve-node1:~# ceph osd tree

  • 一、Ceph的工作原理2021-08-17 19:02:29

    1、什么是Ceph Ceph是⼀种为优秀的性能、可靠性和可扩展性⽽设计的统⼀的、分布式的存储系统。 可同时提供三种接⼝: Object:也称为基于对象的存储,其中的文件被拆分成多个部分并散布在多个存储服务器,在对象存储中,数据会被分解为称为“对象”的离散单元,并保存在单个存储库中,而不是

  • Ubuntu18.04部署P版ceph2021-08-16 03:04:36

    ceph作为目前最火的开源分布式存储,支持对象,块,文件存储。把每个需要管理的数据流(比如文件)切分成多个固定大小的对象数据,并以其原子单元作为存取。 一ceph的存储核心服务是rados(可靠,自动化分布式对象存储)。 二ceph集群角色有如下几个 1.若干的 Ceph OSD(对象存储守护程序),一般一块磁

  • k8s使用ceph2021-08-12 10:04:52

    Ceph常用命令 1、查看状态常用命令 # 集群状态 ceph -s ## 查看正在操作的动作 ceph -w # 查看已经创建的磁盘 rbd ls -l # 查看ceph集群 ceph osd tree # 查看ceph授权信息 ceph auth get client.admin # 移除monitor节点 ceph-deploy mon destroy lab1

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有