ICode9

精准搜索请尝试: 精确搜索
  • ceph集群安装2021-10-24 18:32:42

    1、环境节点准备: 角色      IPmaster 192.168.77.10   系统盘:/dev/sda   数据盘:/dev/sdbnode1  192.168.77.11   系统盘:/dev/sda   数据盘:/dev/sdbnode2  192.168.77.12   系统盘:/dev/sda   数据盘:/dev/sdb 2、给虚拟机增加数据盘:             然后应用

  • Linux | Ceph | Ubuntu 中部署 Ceph 集群2021-10-19 14:32:07

    Ceph 部署 : 手动 注意事项 操作系统 ubuntu 20.4 1. 配置 Ceph APT源 echo deb http://mirrors.aliyun.com/ubuntu/ bionic main restricted universe multiverse 2. 添加 APT 源 Key wget -q -O- 'https://mirrors.tuna.tsinghua.edu.cn/ceph/keys/release.asc' | sudo apt-

  • Kubernetes存储——rook-ceph2021-10-18 16:02:05

    目录一、搭建 rook-ceph(集群)版本:v61.1 服务规划(4c3g)1.2 扫描新磁盘1.3 部署rook-ceph集群1.4 配置ceph dashboard1.5 获取dashboard登陆账号、密码1.6 部署 ceph toolbox二、k8s使用 rook-ceph 的块存储2.1 rook提供RBD服务2.2 使用rook-ceph的块存储2.2.1 使用CSI驱动程序2.2.2

  • ceph存储应用--owncloud2021-10-17 19:01:03

    项目框架 节点规划 节点名字ipcephowncloud192.168.64.128xxxxmaster1192.168.64.150mon,mgr,mdsmaster2 192.168.64.151osdmaster3192.168.64.152osd 部署环境准备 所有节点更改hosts文件,关闭防火墙,关闭selinux,时间同步,添加ceph源和docker源,这个就不演示了,搭建过k8s集群必做

  • php使用ceph2021-10-17 12:33:29

    本文我们接着上文继续来探讨一下如何使用使用 PHP 来操作 Ceph S3 接口。 安装 AWS PHP SDK 建立连接 获取 Bucket 列表 创建一个 Bucket 删除一个 Bucket 获取文件列表 上传文件 删除文件 下载文件 生成文件下载地址 参考文档 安装 AWS PHP SDK 很简单,直接使用 composer 安装

  • 分布式存储Ceph技术2021-10-14 23:02:45

    分布式存储介绍 大规模分布式存储系统的定义如下: “分布式系统是大量普通的PC通过网络互连,对外提供一个整体的存储服务”。 分布式存储系统有以下的特性: 可扩展性:分布式存储系统可以扩展到几百台的集群规模,而且随着集群规模的增长,系统的整体性能呈线性增长; 低成本:分布式存储系统的

  • kolla-ansible运维2021-10-08 14:00:50

    cinder-lvm后端 pvcreate /dev/sdb vgcreate cinder-volumes /dev/sdb vi /etc/kola/globals.yml ...... enable_cinder: "yes" enable_cinder_backend_iscsi: "yes" enable_cinder_backend_lvm:: "yes" cinder_volume_group: "cinder-volum

  • Docker 部署 Ceph的简单方法2021-10-08 07:00:06

    https://zhuanlan.zhihu.com/p/390377674 学习一下.   docker部署 部署的思路和网络架构和前面分布式是一样的,区别在于命令的形式。 在每个节点安装 docker 登录 https://cr.console.aliyun.com/#/accelerator 获取自己的阿里云 docker 加速地址 1. 安装升级 docker 客户端

  • day42-分布式存储之Ceph2021-10-05 10:59:40

    任务背景 虽然使用了分布式的glusterfs存储, 但是对于爆炸式的数据增长仍然感觉力不从心。对于大数据与云计算等技术的成熟, 存储也需要跟上步伐. 所以这次我们选用对象存储. 任务要求 1, 搭建ceph集群 2, 实现对象存储的应用 任务拆解 1, 了解ceph 2, 搭建ceph集群 3, 了解r

  • ceph-deploy add mon失败2021-10-03 02:32:26

    问题描述: 现有集群只有一个mon,需要通过ceph-deploy mon add添加两个mon。在admin(node1)节点执行命令: ceph-deploy mon add node2 提示如下error: [node2][ERROR ] admin_socket: exception getting command descriptions: [Errno 2] No such file or directory [node2][WARNIN]

  • [ceph_deploy.mon][ERROR ] RuntimeError: config file /etc/ceph/ceph.conf exists with different conten2021-10-03 02:32:09

    原因:修改了ceph用户里的ceph.conf文件内容,但是没有把这个文件里的最新消息发送给其他节点,所有要推送消息 解决: ceph-deploy --overwrite-conf config push node2 或ceph-deploy --overwrite-conf mon create node2

  • 【ceph】集群运维记录 - osd reweight & 节点重启2021-09-22 15:01:51

    001 - osd磁盘超过95%后集群不可读写-调整权重进行reblance #背景:三节点ceph集群某个osd打满之后>95%,影响ceph使用 #获取当前ceph集群osd信息命令: ceph osd df  #获取当前集群osd列表,权总,与使用率等信息 ceph osd tree  #获取当前集群osd 物理位置,权重等信息   #re

  • PVE 系统安装要求2021-09-07 09:02:39

    我们建议在生产环境运行 Proxmox VE 时使用高质量的服务器硬件。 为了进一步减少故障主机的影响,您可以运行具有高可用性 (HA) 虚拟机和容器的集群。 Proxmox VE 可以使用本地存储 (DAS)、SAN、NAS 和 Ceph 等分布式存储 RBD。 评估的最低要求 这些最低要求仅用于评估目的,不应在生

  • PVE Ceph 存储集群服务器配置建议2021-09-07 08:31:05

    CPU 每个 Ceph 服务分配一个 CPU 内核。 内存 对于大约 1 TiB 的数据,通常 OSD 将使用1 GiB 的内存。 Bluestore 后端守护进程默认需要 3-5 GiB 内存 (可调整)。 网络 建议使用至少 10 GbE 或更高的网络带宽 专供 Ceph 使用。 一个 HDD 可能不会使 1 Gb 链路饱和,但是每个节点可

  • 基于centos7的企业级ceph集群搭建2021-09-03 01:04:49

    集群规划 本案例通过ceph-deploy方式部署 主机名 配置 外网IP / 内网IP 角色 系统版本 ceph-node01 磁盘x3 50G 192.168.3.101/24 172.16.1.101/16 mon osd ceph-deploy CentOS Linux release 7.9.2009 ceph-node02 磁盘x3 50G 192.168.3.102/24172.16.1.102/16 mon

  • RGW、Dashbord部署以及docker安装、基础命令2021-09-01 22:33:30

    RadosGW 对象存储简介: RadosGW 是对象存储(OSS,Object Storage Service)的一种实现方式,RADOS 网关也称为 Ceph 对象网关、RADOSGW、RGW,是一种服务,使客户端能够利用标准对象存储 API 来访问 Ceph 集群,它支持AWS S3和Swift API,rgw运行于librados之上,在ceph 0.8版本之后使用Civetweb

  • Jewel版cephfs当rm -rf文件时报错"No space left on device"2021-09-01 21:31:59

    Jewel版cephfs当rm -rf文件时报错"No space left on device" 目录一、概述临时的解决方法:永久解决方法二、详情查看当前mds的状态修改参数依据三、参考网址 一、概述 原因:cephfs的stray满了 stray就相当于回收站,stray有文件数限制,默认是10万,定时删除,但删除的很慢。导致stray一直

  • Proxmox VE + Ceph 超融合项目实战(第九部分:一些常用的Ceph/OSD命令)2021-08-31 15:01:24

    参考:https://blog.51cto.com/u_14742102/3499271 九、一些常用的Ceph/OSD命令 1)常见命令查看Ceph/OSD状态 root@pve-node1:~# ceph df root@pve-node1:~# ceph osd df root@pve-node1:~# ceph status root@pve-node1:~# ceph osd stat root@pve-node1:~# ceph osd tree

  • Ceph 管理和使用2021-08-24 23:33:52

    ceph 管理 上次介绍了Ceph集群架构并且搭建了ceph集群,本节介绍ceph用户认证流程和挂载、cephFS、ceph RBD以及ceph mds高可用 1. ceph 授权流程和用户权限管理 1.1. ceph 认证机制 Ceph 使用 cephx 协议对客户端进行身份认证。cephx 用于对 ceph 保存的数据进行认证访问和授权,用于

  • Ceph集群里Rbd、Cephfs以及高可用性部署2021-08-24 22:03:36

    什么是Ceph FS ?   Ceph FS 即 ceph filesystem,可以实现文件系统共享功能,客户端通过 ceph 协议挂载并使用ceph 集群作为数据存储服务器。 Ceph FS 需要运行 Meta Data Services(MDS)服务,其守护进程为 ceph-mds,ceph-mds 进程管理与 cephFS 上存储的文件相关的元数据,并协调对 ceph

  • Ceph-mds2021-08-23 14:02:44

    Ceph MDS States状态详解 - 简书 (jianshu.com)   MDS源码分析-1 启动流程 - 简书 (jianshu.com) MDS源码分析-2 消息分发 - 简书 (jianshu.com) MDS源码分析-3 LOOKUP & GETATTR - 简书 (jianshu.com)MDS源码分析-4 OPEN & OPENC - 简书 (jianshu.com)MDS源码分析-5 加锁流程 ac

  • ceph基础及部署2021-08-21 01:03:52

    一、ceph基础        1.1 ceph 简介 Ceph 是一个开源的分布式存储系统,同时支持对象存储、块设备、文件系统. ceph 是一个对象(object)式存储系统,它把每一个待管理的数据流(文件等数据)切分为一到多个固定大小(默认 4 兆)的对象数据,并以其为原子单元(原子是构成元素的最小单元)

  • Ubuntu18.04上部署Ceph(基于debian-pacific)2021-08-18 19:02:02

    Ceph基础: 1.Ceph 是一个开源的分布式存储系统,同时支持对象存储、块设备、文件系统. 2.ceph 是一个对象(object)式存储系统,它把每一个待管理的数据流(文件等数据)切分为一到多个固定大小(默认 4 兆)的对象数据,并以其为原子单元(原子是构成元素的最小单元)完成数据的读写。 3.对象数

  • 一、Ceph的工作原理2021-08-17 19:02:29

    1、什么是Ceph Ceph是⼀种为优秀的性能、可靠性和可扩展性⽽设计的统⼀的、分布式的存储系统。 可同时提供三种接⼝: Object:也称为基于对象的存储,其中的文件被拆分成多个部分并散布在多个存储服务器,在对象存储中,数据会被分解为称为“对象”的离散单元,并保存在单个存储库中,而不是

  • 20210814第一天:Ceph简介和安装2021-08-16 13:34:11

    一、Ceph简介   Ceph是一个分布式的数据对象存储,系统设计旨在性能、可靠性和可扩展性上能够提供优秀的存储服务。Ceph分布式存储能够在一个统一的系统中同时提供了对象、块、和文件存储功能,在这方面独一无二的;同时在扩展性上又可支持数以千计的客户端可以访问PB级到EB级甚至更多

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有