ICode9

精准搜索请尝试: 精确搜索
  • CEPHADM 操作之客户端密钥环和配置2022-03-05 09:01:59

    Cephadm 可以将ceph.conf文件和客户端密钥环文件的副本分发到主机。通常最好将配置和密钥环的副本存储在 client.admin 用于通过 CLI 管理集群的任何主机上。默认情况下,cephadm 对任何具有 _admin 标签的节点(通常包括引导主机)执行此操作。 当客户端密钥环被置于管理之下时,cephadm

  • CEPHADM 操作之 /ETC/CEPH/CEPH.CONF2022-03-05 09:01:04

    将 CEPH.CONF 分发给没有密钥环的主机 将 ceph.conf 文件分发到没有关联客户端密钥环文件的主机可能很有用。默认情况下,cephadm 仅将 ceph.conf 文件部署到也分发客户端密钥环的主机(见上文)。要将配置文件写入没有客户端密钥环的主机,请运行以下命令: ceph config set mgr mgr/cephad

  • CEPHADM 操作之清除集群2022-03-05 09:00:07

    危险: 此操作将销毁该集群中存储的所有数据 为了破坏集群并删除该集群中存储的所有数据,请暂停 cephadm 以避免部署新的守护进程。 ceph orch pause 然后验证集群的 FSID: ceph fsid 清除集群中所有主机的 ceph 守护进程 # For each host: cephadm rm-cluster --force --zap-osd

  • CEPHADM 操作之健康检查2022-03-05 08:31:24

    cephadm 模块提供额外的健康检查来补充集群提供的默认健康检查。这些额外的健康检查分为两类: cephadm 操作:当 cephadm 模块处于活动状态时,始终执行此类别的健康检查。 集群配置:这些健康检查是可选的,主要关注集群中主机的配置。 CEPHADM 操作 CEPHADM_PAUSED ceph orch pause 这

  • CEPHADM 操作之 CEPH 守护进程日志2022-03-04 23:04:15

    记录日志 Ceph 守护进程传统上将日志写入/var/log/ceph。 Ceph 守护进程默认记录到日志中,并且 Ceph 日志由容器运行时环境捕获。它们可通过 journalctl 访问。 笔记: 在 Quincy 之前,ceph 守护进程会输出到stderr。 日志记录示例 例如,要查看具有 ID 5c5a50ae-272a-455d-99e9-32c6

  • CEPHADM 操作之数据位置2022-03-04 23:01:00

    Cephadm 将守护进程数据和日志存储在不同的位置,而不是旧的、cephadm之前(Octopus之前)版本的 ceph: /var/log/ceph/: 包含所有集群日志。默认情况下,cephadm 通过 stderr 和容器运行时记录日志。除非您按照cephadm-logs中的说明启用了对文件的日志记录,否则这些日志将不存在。 /var/li

  • ceph 问题总结已解决2022-03-04 19:33:31

    1. waiting for a volume to be created, either by external provisioner "ceph.com/rbd" or manually create 修改kube-apiserver 配置 添加 --feature-gates=VolumeSnapshotDataSource=true,RemoveSelfLink=false 重启一下kube-apiserver就可以了 2. clock skew detected on m

  • Ceph 服务管理之额外的容器参数2022-03-03 22:03:55

    警告: 为额外容器参数提供的参数仅限于您正在使用的任何容器引擎的运行命令可用的任何参数。提供run命令不支持的任何参数(或参数的无效值)将导致守护程序无法启动。 Cephadm 支持在可能需要时为特定情况提供额外的杂项容器参数。例如,如果用户需要限制他们的 mon 守护进程使用的 c

  • Ceph OSD 故障排除之内存不足2022-03-01 14:35:23

    我们建议每个 OSD 守护程序至少有 4GB 的 RAM,并建议从 6-8GB 向上取整。 您可能会注意到,在正常操作期间,ceph-osd 进程只使用该数量的一小部分。未使用的 RAM 很容易将多余的 RAM 用于共存应用程序或节省每个节点的内存容量。 然而,当 OSD 经历恢复时,它们的内存利用率会达到峰值。如

  • [自动化]基于kolla的自动化部署ceph集群2022-02-28 17:33:36

    kolla-ceph来源: 项目中的部分代码来自于kolla和kolla-ansible kolla-ceph的介绍: 1、镜像的构建很方便, 基于容器的方式部署,创建、删除方便 2、kolla-ceph的操作幂等,多次执行不会产生副作用 3、使用kolla-ceph(基于ansible)流程化部署 4、通过给磁盘打上相应标签,创建osd非常简单 5

  • Ceph 数据放置概述2022-02-28 09:03:32

    Ceph 在 RADOS 集群中动态存储、复制和重新平衡数据对象。由于许多不同的用户在无数 OSD 上出于不同目的将对象存储在不同的池中,因此 Ceph 操作需要一些数据放置规划。Ceph 中主要的数据放置规划概念包括: Pools(池): Ceph 将数据存储在池中,池是用于存储对象的逻辑组。池管理归置组

  • Ceph 修复 PG (归置组)不一致2022-02-28 08:31:05

    有时,归置组可能会变得“不一致”。要将归置组返回到 active+clean 状态,您必须首先确定哪些归置组变得不一致,然后对其运行“pg repair”命令。此页面包含用于诊断归置组的命令和用于修复已变得不一致的归置组的命令。 用于诊断归置组问题的命令 本节中的命令提供了各种诊断损坏的归

  • Ceph 健康检查2022-02-27 09:35:56

    参考:https://docs.ceph.com/en/pacific/rados/operations/health-checks/ 概述 Ceph 集群可以发出一组有限的可能的健康消息——这些消息被定义为具有唯一标识符的健康检查。 标识符是一个简洁的伪人类可读(即像变量名)字符串。它旨在使工具(例如 UI)能够理解健康检查,并以反映其含义

  • ceph常用操作指令2022-02-26 11:03:36

    安装ceph客户端 apt install ceph -y # ubuntu yum install ceph -y # centos 查看现有的pool ceph osd lspools 创建pool ceph osd pool create pool_name pg_num 查看pool列表 ceph osd lspools 创建块存储 rbd create image-name --size megabytes --po

  • Ceph inconsistent 错误修复脚本2022-02-10 14:32:05

    #!/bin/bash health_state=$(ceph -s | grep health | awk '{print $2}') inconsistent_state=$(ceph -s | grep inconsistent) damaged_pg=$(ceph health detail | grep -A1 PG_DAMAGED | tail -1 | awk '{print $2}') date >>ceph-pg-repair.lo

  • 4. 在 Proxmox VE 安装Ceph2022-02-04 20:59:51

    4. 在 Proxmox VE 安装 Ceph 1. 安装 按图操作即可 2. 参考 [1] https://blog.csdn.net/ggeol/article/details/109112815

  • Linux下离线部署指定版本的Ceph集群2022-01-28 10:33:06

    Ceph版本:14.2.22 Linux版本:ubuntu-server 18.04     第一部分 集群组织架构 注:上图中的管理节点并不属于ceph集群,只是一个普通的主机,没有安装ceph,下文所说的集群节点指的是安装了ceph软件的节点。     第二部分 下载Ceph源码 2.1 配置Ceph源码镜像源 Ceph源码是托管在Githu

  • Linux下Ceph源码编译和GDB调试2022-01-28 10:31:42

    Ceph版本:14.2.22 Linux版本:ubuntu-server 18.04     第一部分 下载Ceph源码 1.1 配置Ceph源码镜像源 Ceph源码是托管在Github上,由于某些原因,国内访问Github网站很慢,所以需要从其他途径加速获取源码。Github官方给出了几个Github的镜像网站: https://github.com.cnpmjs.org/ ht

  • 10倍!BoostKit鲲鹏全局缓存3大创新技术助力Ceph性能提升2022-01-25 15:36:34

    摘要:本文从四个方面阐述了BoostKit鲲鹏全局缓存技术,该技术针对Ceph开源存储方案存在的痛点,采用三大创新技术,有效的提高了Ceph的性能,最高可以将Ceph性能提升10倍。 本文分享自华为云社区《【云驻共创】BoostKit鲲鹏全局缓存技术助力Ceph性能提升10倍,真香》,作者:码农飞哥。 1. 存储行

  • 【ceph相关】bucket动态分片2022-01-20 20:34:11

    【ceph相关】bucket动态分片 1、背景说明 参考说明: https://access.redhat.com/documentation/en-us/red_hat_ceph_storage/2/html/object_gateway_guide_for_ubuntu/administration_cli#configuring-bucket-index-sharding https://ceph.com/community/new-luminous-rgw-dy

  • CephFS分布式文件系统2022-01-20 14:34:56

    目录组件基本组件块存储文件存储对象存储特点:1、高性能:2、高可用性:3、高可扩展性:4、特性丰富:详细配置一、准备机器1、修改主机名2、修改hosts文件二、Ceph节点安装1. 安装NPT(所有节点)2、管理节点配置无密码ssh登陆3、关闭核心防护4、配置yum源三、搭建集群1. 安装准备,创建文件夹2.

  • Linux下在线部署指定版本的Ceph集群2022-01-19 09:59:28

    Ceph版本:v14.2.22 Linux版本:ubuntu-server 18.04 官方教程:deploying a Ceph Storage Cluster with ceph-deploy 第一部分 集群组织架构 注:上图中的管理节点并不属于ceph集群,只是一个普通的主机,没有安装ceph,下文所说的集群节点指的是安装了ceph软件的节点。 第二部分 前

  • Ceph 用户管理2022-01-17 15:33:35

    用户管理Ceph storage cluster的认证和授权默认是启用的。Ceph的客户端用户要么是独立的个体用户,要么是系统中的一个应用,他们都使用ceph的客户端与ceph存储集群交互。 当ceph启用认证和授权时,你必须要指定用户名和包含秘钥的钥匙环才可以使用客户端与集群进行交互。如果不指定如:ce

  • 初识ceph2022-01-16 21:00:45

    一、Ceph分布式存储 1.1、Ceph文件系统简述 Ceph是一个统一的分布式存储系统,设计初衷是提供较好的性能、可靠性和可扩展性。 Ceph项目最早起源于Sage就读博士期间的工作(最早的成果于2004年发表),并随后贡献给开源社区。在经过了数年的发展之后,目前已得到众多云计算厂商的支持并被

  • CEPHFS文件系统基本操作2022-01-14 18:01:18

    CEPHFS文件系统基本操作 1.查看cephfs文件系统信息 # ceph fs ls name: cephfs, metadata pool: metadata, data pools: [data ] # ceph mds stat e109: 1/1/1 up {0=node202=up:active}, 2 up:standby # ceph mds dump dumped fsmap epoch 109 fs_name cephfs epoch 109 flags

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有