ICode9

精准搜索请尝试: 精确搜索
  • Ubuntu18.04部署P版ceph2021-08-16 03:04:36

    ceph作为目前最火的开源分布式存储,支持对象,块,文件存储。把每个需要管理的数据流(比如文件)切分成多个固定大小的对象数据,并以其原子单元作为存取。 一ceph的存储核心服务是rados(可靠,自动化分布式对象存储)。 二ceph集群角色有如下几个 1.若干的 Ceph OSD(对象存储守护程序),一般一块磁

  • k8s使用ceph2021-08-12 10:04:52

    Ceph常用命令 1、查看状态常用命令 # 集群状态 ceph -s ## 查看正在操作的动作 ceph -w # 查看已经创建的磁盘 rbd ls -l # 查看ceph集群 ceph osd tree # 查看ceph授权信息 ceph auth get client.admin # 移除monitor节点 ceph-deploy mon destroy lab1

  • 2021马哥云原生/微服务治理大厂冲刺班2021-08-11 12:33:59

    01 2021全新马哥Linux云计算高薪就业实战班VIP体验课 【录播】云计算课程概览和计算机基础知识(56分钟) 免费试学 【录播】计算机服务器硬件组成(78分钟) 免费试学 【录播】计算机硬件组成(78分钟) 免费试学 【录播】操作系统基础(105分钟) 免费试学 【录播】CentOS和Ubunt

  • centos 7 搭建ceph集群——筑梦之路2021-08-06 23:00:52

    ceph 分布式存储搭建 2020-5-9 操作系统: centos 7 x86_64 环境介绍: 192.168.25.40 ceph-master 管理节点 192.168.25.41 ceph-node-01 监控节点 192.168.25.42 ceph-node-02 osd节点 192.168.25.43 ceph-node-03 osd节点 https://www.cnblogs.com/zengzhihua/p/9829472.ht

  • K8s——kubernetes集群中ceph集群使用【下】2021-08-02 19:57:37

    kubernetes集群中ceph集群使用 一:CephFS 创建和使用 CephFS 允许用户挂载一个兼容posix的共享目录到多个主机,该存储和NFS共享存储以及CIFS共享目录相似 1.filesystem 配置 [root@master ~]# cd /tmp/rook/cluster/examples/kubernetes/ceph [root@master ceph]# sed -i 's/

  • k8s学习笔记——ceph客户端安装2021-08-02 16:01:46

    在非monitor节点安装ceph客户端可以配置操作ceph集群 1、首先查看操作系统版本,最后和ceph集群版本一致 lsb_release -a uname -r 2、ceph集群安装(前期准备)在每一台客户端机器上设置一遍 3、安装ceph 在monitor的管理节点上,在创建的ssh免密登录用户下执行(在hosts上添加客户端hos

  • Ceph rbd的寻址(rbd块文件的下载)2021-07-31 16:04:19

    1. Ceph rbd 与 rgw的寻址(rbd块/对象存储文件的下载) 1.1. 索引的存储1.2. rbd 的寻址1.3. 小笔记1.4. rgw的寻址1.5. 数据恢复思路 1.5.1. 场景1.5.2. 思路 1. Ceph rbd 与 rgw的寻址(rbd块/对象存储文件的下载) 1.1. 索引的存储 ceph的索引都存储在omap中 rbd – 每个rb

  • OpenStack集成Ceph2021-07-31 16:02:02

    1. 版本说明2. 前期准备 2.1. 创建keyring2.2. 创建pool2.3. 安装依赖包 3. glance 对接 3.1. glance-api.conf 4. 对接nova 4.1. libvirt配置4.2. nova conf配置 5. 对接cinder 5.1. /etc/cinder/cinder.conf5.2. virsh secret(所有计算节点)5.3. 配置cinder type 6. 测试 6

  • nfs-ganesha导出cephfs为nfs2021-07-31 16:00:43

    1. 概述2. 前提条件3. 版本说明4. 安装 4.1. 配置yum源4.2. 安装软件 5. 配置6. 使用7. 部署问题 7.1. nfs挂载之后无法创建文件、文件夹 8. 剩下的问题9. 参考文档 1. 概述 cephfs直接使用不变,需要安装较多的依赖,相对来说nfs更加通用。 FSAL_CEPH 调用 libcephfs2 将 NFS 转

  • Ceph分布式存储详述2021-07-29 16:03:13

    存储发展史 企业中使用存储按照其功能,使用场景,一直在持续发展和迭代,大体上可以分为四个阶段: DAS:Direct Attached Storage,即直连存储,第一代存储系统,通过SCSI总线扩展至一个外部的存储,磁带整列,作为服务器扩展的一部分; NAS:Network Attached Storage,即网络附加存储,通过网络协议如NFS

  • Ceph集群与Ceph块存储2021-07-24 12:01:09

    文章目录 Ceph集群与Ceph块存储实验环境准备方案为虚拟机添加磁盘:所有主机设置防火墙和SELinux(如果已经关闭,则此步骤可以忽略)配置无密码连接(包括自己远程自己也不需要密码),在node1操作。修改/etc/hosts并同步到所有主机。修改所有节点都需要配置YUM源,并同步到所有主机。给

  • 记一次K8s排错实战2021-07-20 21:01:11

    记一次K8s排错实战 这是我参与更文挑战的第3天,活动详情查看: 更文挑战 转载https://juejin.cn/post/6969571897659015205 一 背景 收到测试环境集群告警,登陆K8s集群进行排查。 二 故障定位 2.1 查看pod 查看kube-system node2节点calico pod异常 查看详细信息,查看node2节点没

  • 如何将下线的OSD磁盘,重新初始化上线使用2021-07-18 15:01:00

    将前面删除的osd磁盘,重新初始化并重新加入到ceph集群当中。  清空已删除磁盘中的内容           输入命令:           wipefs -af /dev/sdd zap该磁盘 ceph-volume lvm zap /dev/sdd    [ceph: root@ceph-mon1 /]# ceph-volume lvm zap --help usage: ceph-volume l

  • Ceph性能瓶颈分析与优化(混合盘篇)2021-07-14 12:34:14

    背景 企业级存储中,SSD+HDD的混合盘是一种典型应用场景,可以兼顾成本、性能与容量。 但网易数帆存储团队经过测试(4k随机写)发现,加了NVMe SSD做Ceph的WAL和DB后,性能提升不足一倍且NVMe盘性能余量较大。所以我们希望通过瓶颈分析,探讨能够进一步提升性能的优化方案。 测试环境 Ce

  • 分布式存储之ceph2021-07-11 23:02:31

    1.1 ceph 特点 高性能 高可用性 高可扩展性 特性丰富 1.2 架构 对象(object): 原生API 块 (block): 支持精简配置、快照、克隆 文件 (File): Posix接口 , 支持快照 1.3 核心组件 Monitor : 一个Ceph集群需要多个Monitor组成的小集群,它们通过Paxos同步数据,用 来保存OSD的元

  • ceph运维2021-07-08 22:59:43

    osd的扩容和换盘 横向扩容(扩容节点) 扩展mds: 需要将扩容的节点上安装ceph所需要的包,然后将节点加入到集群中,在新节点安装ceph,ceph版本必须与原集群版本一致 yum -y install ceph rpm -qa | egrep -i “ceph|rados|rbd” ceph -v 管理节点复制配置文件和密钥到新增节点 [roo

  • CEPH 中移除或替换一个损坏的OSD2021-07-07 15:34:41

    1. 使用 ceph osd tree 查看 ,   2. 开始尝试将 osd.3  替换掉,将osd 设置为down。     先将osd.3 设置为 down 状态,下面命令必须在osd.3 所在的主机上执行。     systemctl stop ceph-osd@3.service          3. 执行 Ceph osd out osd.3  这样 reweight 设置为0

  • Ceph RADOS汇总2021-07-05 22:04:11

    OSD OSD启动流程 OSD状态变化 HeartBeat心跳检查 CRUSH算法 IO流程 OSD消息处理总结 OSD线程模型 MISC OSD中的tick线程 OSD中的线程池和工作队列 PG Peering Recovery Backfill PG状态转移 PG分裂 PG重平衡 快照和克隆 MON Paxos 数据同步 MON线程模型 网络通讯 综合

  • 关于Redis集群部署和持久化的相关问题2021-07-05 14:00:57

    关于Redis集群部署和持久化的相关问题 Q1:请问Redis集群假如用三台物理机做,每台运行2个实例,如何保障每台物理机的实例不是互为主从的? A1 : 这个问题其实我们通常情况下大家也都会遇到。第一点如果你是使用物理机来做,并且你每台机器上面运行两个实例,三台机器每个机器上面运行2个实例,

  • 用于大规模红帽 Ceph 存储性能测试的工具2021-07-04 13:01:18

    去年推出的一个博客系列记录了红帽在 Dell EMC 服务器上对红帽 Ceph 存储性能进行的广泛测试。 这项工作也在性能和规模调整指南中进行了描述,并得到了戴尔科技公司和英特尔公司的支持,评估了影响红帽 Ceph 存储性能的许多因素,包括: 确定固定大小集群的最大性能将集群扩展到超过

  • ceph高可用分布式存储集群12-S3cmd详解2021-07-02 13:02:12

    S3cmd(s3cmd)是免费的命令行工具和客户端,用于在Amazon S3和其他使用S3协议的云存储服务提供商(例如Google Cloud Storage或DreamHost DreamObjects)中上载,检索和管理数据。最适合熟悉命令行程序的高级用户。它也是批处理脚本和自动备份到S3(由cron等触发)的理想选择。 S3cmd用Python编写

  • ceph高可用分布式存储集群08-ceph nautilus 14.2.19安装 ceph mgr dashboard2021-07-02 13:01:41

     Ceph Dashboard介绍   Ceph 的监控可视化界面方案很多----grafana、Kraken。但是从Luminous开始,Ceph 提供了原生的Dashboard功能,通过Dashboard可以获取Ceph集群的各种基本状态信息。  (nautilus版) 需要安装 ceph-mgr-dashboard ceph nautilus dashboard 已经具有一些管理功

  • Ceph之osd扩容和换盘2021-06-20 21:05:08

    目录一、osd扩容1.1 osd横向扩容(scale out)1.2 osd纵向扩容(scale up)1.2.1 清理磁盘数据1.2.2 加入新的osd1.2.3 确认ods已扩容1.3 ceph osd数据重新分布1.3.1 临时关闭rebalance1.3.2 开启rebalance二、osd缩容2.1 剔除osd节点 一、osd扩容 1.1 osd横向扩容(scale out) 简单理解,横向

  • ceph环境清理2021-06-20 17:01:41

    第一步:在/root/ceph 目录下执行(第一个节点) ceph-deploy purge ceph01 ceph02 ceph03 ceph04 ceph-deploy purgedata ceph01 ceph02 ceph03 ceph04 ceph-deploy forgetkeys rm -rf ceph.* 第二步:在/root 目录下执行(节点1、节点2、节点3、节点4): result_VG=`vgdisplay | grep "

  • 为什么Ceph比Glusterfs更适合接入k8s2021-06-18 18:56:47

    如果团队不是实在搞不定ceph的话,个人建议,现阶段不建议k8s的后端存储使用glusterfs. 因为问题比较多. 首先说明一下,glusterfs这种无中心架构,节点之间采用全互联模式的,也就意味着通信带宽消耗要求会比master/slave这种高很多. 另外glusterfs更加适合做冷数据存储集群,也就是一些重

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有