ICode9

精准搜索请尝试: 精确搜索
  • 【ceph】CEPH RGW初使用-RGW12021-06-18 12:03:34

      原文《Getting started with CEPH RGW》:https://soumyakoduri.wordpress.com/2019/02/14/getting-started-with-ceph-rgw/ 在这篇文章中,我记录在fedora-28 虚拟机上创建最小 CEPH RGW 集群的粗略的笔记和命令。 操作系统版本: # cat /etc/redhat-release Fedora release 28 (T

  • promox 配置 ceph2021-06-17 19:06:00

    1.点击 ceph 安装 ceph   2. 在机器上运行   pveceph install   3.加入已有的Cluster information 信息可以从 Cluster 中获取    创建OSD  

  • sed常见报错2021-06-10 18:03:40

    在使用sed把ceph镜像源从国外改为清华源遇到的两个报错 sed -Ei.bak -e '/^baseurl/s/http(.*)com/https:\/\/mirrors.tuna.tsinghua.edu.cn\/ceph/' -e '/^gpgkey/s/https(.*)com/https:\/\/mirrors.tuna.tsinghua.edu.cn\/ceph/' /etc/yum.repos.d/ceph.repo sed: -e e

  • Ceph主要概念2021-06-10 15:29:40

    目录   1      整体架构介绍 1.1      总体介绍 1.2      整体架构 2      集群管理 2.1      Monitor 2.2      心跳管理 3      数据读写 3.1      OSD 3.2      读写流程 3.3      POOL和PG 3.4      CRUSH算法 3.4

  • rook-ceph说明2021-06-09 15:01:33

    cluster.yaml文件 文件中有几个地方要注意: dataDirHostPath: 这个路径是会在宿主机上生成的,保存的是ceph的相关的配置文件,再重新生成集群的时候要确保这个目录为空,否则mon会无法启动,宿主机的/var/lib/rook文件夹 useAllDevices: 使用所有的设备,建议为false,否则会把宿主机所有可用

  • k8s集群中安装rook-ceph2021-06-02 19:01:56

    # 克隆指定版本的 git clone --single-branch --branch v1.6.3 https://github.com/rook/rook.git # 进入到目录 cd rook/cluster/examples/kubernetes/ceph #全部的pod都会在rook-ceph命名空间下建立 kubectl create -f common.yaml kubectl create -f crds.yaml #部署Rook操

  • @分布式存储ceph创建rgw接口2021-05-30 18:58:50

    分布式存储ceph创建rgw接口 一、对象存储简述 对象存储(Object Storage)是无层次结构的数据存储方法,对象存储中每一条数据都作为单独的对象存储,拥有唯一的地址来识别数据对象,通常用于云计算环境中 不同于其他数据存储方法,基于对象的存储不使用目录树 1、 数据作为单独的对象

  • Ceph 成立委员会了,不再是 Red Hat 一家主导2021-05-30 07:04:47

     钟最龙 译 分布式实验室Red Hat的Ceph是一个广受欢迎的可以支持软件定义对象和文件云存储套件。尽管Ceph的代码是开源的,但其战略方向在过去由Red Hat掌控。然而这即将成为历史。在东京OpenStack峰会(Toyko OpenStack Summit)上,Red Hat宣布它的以Ceph为基础,软件定义存储技术的整体

  • 实战 | 在Docker里运行Ceph2021-05-29 07:04:28

     韩佳瑶 分布式实验室 Ceph是一个完全开源的分布式存储方案、网络块设备以及文件系统,具有高稳定性、高性能、高扩展性等特点,可应对terabyte到exabyte级别的数据量。通过使用创新性的调度算法(CRUSH)、主动存储节点、以及peer-to-peer的gossip协议,Ceph规避了传统集中控制和lookup t

  • SDNLAB技术分享(十七):Ceph在云英的实践2021-05-27 17:04:05

    编者按:本文系SDNLAB技术分享系列,我们希望通过SDNLAB提供的平台传播知识,传递价值,欢迎加入我们的行列。分享嘉宾杨冠军,CloudIn云英研发工程师。专注存储领域十余年,曾就职于EMC、华为等国内外知名大型存储公司,有十分丰富的存储实践经验,研究Ceph一年多,对其架构原理、性能调优、服务监控

  • @kvm虚拟机搭建2021-05-22 21:34:51

    KVM虚拟机使用 一、 KVM虚拟机部署 ​ 在开始之前首先需要部署一台KVM虚拟,然后指定虚拟机xml配置文件,最后修改虚拟机配置文件指定 从Ceph集群加载磁盘即可,同样使用KVM作为Ceph集群客户端,那么客户端节点必须安装ceph- common软件包,并把ceph.conf配置文件和授权keyring文件复

  • 手动解决pg分布不均衡2021-05-22 19:01:52

    从Luminous v12.2.z开始,OSDMap中有一个新的pg-upmap异常表,允许集群将特定的PG显式映射到特定的OSD。   ceph features #查看ceph特征 ceph osd set-require-min-compat-client luminous --yes-i-really-mean-it #设置集群仅支持 Luminous(或者L之后的)客户端   ceph osd getmap

  • ceph集群中报application not enabled on 1 pool(s)错误2021-05-22 18:58:31

    一、执行ceph -s  发现告警application not enabled on 1 pool(s)错误 二、执行ceph health detail   分析 运行ceph health detail命令发现是新加入的存储池test没有被应用程序标记 解决方法 ceph osd pool application enable test rbd

  • Ceph 与 PV/PVC 集成2021-05-20 23:35:29

    ceph osd lspools rbd create -p kubernetes --image-feature layering demo-1.img --size 5G rbd -p kubernetes ls mkdir -p /data/pv_pvc cd /data/pv_pvc # 创建 pv.yaml vi pv.yaml apiVersion: v1 kind: PersistentVolume metadata: name: rbd-demo spec: access

  • Ceph put 操作与 Volumes 结合使用2021-05-20 23:04:00

    Ceph put 操作 ceph osd pool create mypool 32 32 rados put day.jpg /usr/share/backgrounds/day.jpg -p mypool rados ls -p mypool ceph osd map mypool day.jpg Ceph 与 Volumes 结合使用 mkdir /data/volumes -p cd /data/volumes ceph osd pool create kubernetes 8 c

  • Ceph-12021-05-19 16:03:34

    CephFS: 就是当一个文件系统使用 radowgw: 是一个http的api接口 存储池 3种客户端: radowgw , rbd , CephFS

  • etcd高可用集群2021-05-17 22:30:42

    一、环境介绍 操作系统信息:CentOS 7 64位 服务器信息: 10.131.149.188    ceph-node2 10.131.149.189     ceph-node1 10.131.149.190    ceph-admin 关闭服务器防火墙 二、etcd部署前准备 1、设置免密登录 以下在每个节点都执行 ssh-keygen   # 3个回车 ssh-copy-id -i

  • k8s通过ceph-csi接入存储的概要分析2021-05-15 18:01:45

    概述 下面的分析是k8s通过ceph-csi(csi plugin)接入ceph存储(csi相关组件的分析以rbd为例进行分析),对csi系统结构、所涉及的k8s对象与组件进行了简单的介绍,以及对存储进行操作的流程分析,存储相关操作包括了存储创建、存储扩容、存储挂载、解除存储挂载以及存储删除操作。 csi系统结构

  • @ceph 分布式存储2021-05-13 23:58:39

    文章目录 分布式存储ceph一、ceph介绍1.1、ceph是什么1.2什么是块存储、文件存储、对象存储1.2.1 备知识: 块级与文件级1.2.2 块存储、文件存储、对象存储(1)简述块存储、文件存储,对象存储(2)块存储、文件存储、对象存储的关系(3)细说块存储、文件存储、对象存储 1.3为何要

  • 详解Ceph系统数据是如何布局的?2021-05-11 14:06:32

    Ceph项目始于2004年,是为优秀的性能、可靠性和可扩展性而设计的统一的分布式存储系统。在使用RADOS系统时,客户端程序通过与OSD或者Monitor的交互获取ClusterMap,然后直接在本地进行计算,得出对象的存储位置后,便直接与对应的OSD通信,完成数据的各种操作。可见,在此过程中,只要保证ClusterM

  • Ceph和Gluster,开源存储间的较量2021-05-11 12:03:00

    Ceph和Gluster是Red Hat旗下的成熟的开源存储产品,Ceph与Gluster在原理上有着本质上的不同。Ceph基于一个名为RADOS的对象存储系统,使用一系列API将数据以块(block)、文件(file)和对象(object)的形式展现。Ceph存储系统的拓扑结构围绕着副本与信息分布,这使得该系统能够有效保障数据的

  • Ceph RBD块存储 快照创建和克隆2021-05-11 12:01:51

    快照其实和虚拟机的快照是一样的,只不过是用一些命令实现的 创建快照 0、创建rbd使用的pool [root@cephnode01 ~]# rbd create --size 10240 image02 rbd: error opening default pool 'rbd' Ensure that the default pool has been created or specify an alternate pool name.

  • 收藏了,硬盘、RAID组与Ceph的IOPS公式与工具2021-05-10 11:54:59

    机械硬盘7200硬盘IOPS = 1000/(3 + 1000*(7200/60)/2) = 14010k硬盘IOPS = 1000/(3 + 60000/10000/2) = 16715k硬盘IOPS = 1000/(3 + 60000/15000/2) = 200其中3为寻道延迟,7200/10k/15k为转速(rpm),1000*(7200/60)/2为旋转延迟(旋转延迟一般用转一圈所需时间的1/2表示),结果为理论峰值,实

  • 激动人心!Ceph新长支持稳定版本Luminous(12.x.x)有那些新功能2021-05-10 11:53:55

    通用功能:目前,Ceph拥有一个操作简单,基于Web的内置仪表板,用于监控群集状态。(Ceph Dashboard具体可以参阅Ceph官网中文文档:Ceph luminous 新功能之内置dashboard)RADOS:BlueStore:ceph-osd的新后端存储BlueStore已经稳定,是新创建的OSD的默认设置。 BlueStore通过直接管理物理HDD或SSD而

  • K8S使用ceph实现持久化存储2021-05-09 17:34:23

    一、概述 ceph为k8s提供存储服务主要有两种方式,cephfs和ceph rdb;cephfs方式支持k8s的pv的3种访问模式ReadWriteOnce,ReadOnlyMany,ReadWriteMany ,RBD支持ReadWriteOnce,ReadOnlyMany。 二、部署k8s和ceph 2.1、部署k8s集群 部署方式见《基于kubeadmin安装Kubernetes集群》 2.2、部署c

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有