ICode9

精准搜索请尝试: 精确搜索
  • 在kubernetes1.17.2上结合ceph部署efk2020-03-18 19:51:51

    简绍 应用程序和系统日志可以帮助我们了解集群内部的运行情况,日志对于我们调试问题和监视集群情况也是非常有用的。而且大部分的应用都会有日志记录,对于传统的应用大部分都会写入到本地的日志文件之中。对于容器化应用程序来说则更简单,只需要将日志信息写入到 stdout 和 stderr 即

  • ceph luminous 12.2.12 HEALTH_WARN2020-03-15 18:01:11

    ceph luminous 12.2.12 HEALTH_WARN1,ceph luminous 12.2.12 HEALTH_WARN 1,ceph luminous 12.2.12 HEALTH_WARN health: HEALTH_WARN application not enabled on 1 pool(s) # ceph health detail HEALTH_WARN application not enabled on 1 pool(s) POOL_A

  • rbd bench2020-01-27 10:40:12

    向rbd压数据: rbd bench-write test_index/LUN --io-size 512K --io-pattern seq --io-threads 16 --io-total 1T •--io-size:单位 byte,默认 4096 bytes = 4K •--io-threads:线程数,默认 16 •--io-total:总写入字节,单位为字节,默认 1024M •--io-pattern <seq|rand>:写模式,默认

  • ceph rbd块存储挂载及文件存储建立2020-01-23 18:52:17

    一、rbd块存储挂载 1 创建一个OSD pool # ceph osd pool create rbd1 128 查询存储空间使用 # ceph df GLOBAL: SIZE AVAIL RAW USED %RAW USED 480GiB 474GiB 6.12GiB 1.28 POOLS: NAME ID USED %USED MAX AVAIL OBJECTS volumes 1 134B 0 150GiB 5 vms

  • 配置Ceph向外部提供iSCSI存储2019-12-10 10:01:23

    准备下面的ceph存储集群(具体建立过程可以参考本博客的其他文章)其中集群的管理节点为store1,ip地址为10.8.20.11下面在这个集群上面创建一个40G的镜像,并把这个镜像作为iscsi的目标,局域网的其他机器可以访问并挂载该iscsi目标、使用的是tgt方式。一、创建镜像,使用可视化方式进行打开ce

  • ceph概述2019-11-28 17:01:42

                                                                            ceph概述   基础知识 什么是分布式文件系统 •  分布式文件系统(Distributed File System)是指文件系统管理的物理存储资源不一定 直接连接在本地节点上,而是

  • K8S statefulset 详解2019-11-25 17:56:34

    概述 StatefulSet    RC、Deployment、DaemonSet都是面向无状态的服务,它们所管理的Pod的IP、名字,启停顺序等都是随机的,而StatefulSet是什么?顾名思义,有状态的集合,管理所有有状态的服务,比如MySQL、MongoDB集群等。StatefulSet本质上是Deployment的一种变体,在v1.9版本中已成为GA版

  • K8S statefulset 详解2019-11-25 17:56:22

    概述 StatefulSet    RC、Deployment、DaemonSet都是面向无状态的服务,它们所管理的Pod的IP、名字,启停顺序等都是随机的,而StatefulSet是什么?顾名思义,有状态的集合,管理所有有状态的服务,比如MySQL、MongoDB集群等。StatefulSet本质上是Deployment的一种变体,在v1.9版本中已成为GA版

  • RBD块设备在Ceph分布式存储中的具体应用2019-10-12 12:56:28

    确保集群状态正常(具体配置过程略):可参照 https://blog.51cto.com/jdonghong/244175 上半部分配置。CEPH环境配置开始部署RBD or RADOS Block Device 客户端安装ceph(本案例客户端为192.168.27.210,192.168.26.112)ceph-deploy install bddb.com推送配置文件到客户端。[root@maste

  • zz``让我们了解 Ceph 分布式存储2019-09-27 14:55:33

    https://www.cnblogs.com/yangxiaoyi/p/7795274.html 前言        最近在学习 kubernetes 过程中,想实现 pod 数据的持久化。在调研的过程中,发现 ceph 在最近几年发展火热,也有很多案例落地企业。在选型方面,个人更加倾向于社区火热的项目,GlusterFS、Ceph 都在考虑的范围之内,但是

  • Rancher集群启动服务挂载rbd存储报错排查2019-09-04 16:00:31

    rook-ceph 集群部署完成后,新建主机发现所有容器节点无法挂载存储空间: Rancher 平台启动容器报错显示: Deployment does not have minimum availability 解决办法如下: 我rke部署的k8s集群,需要修改rke cluster.yaml 文件,将插件目录到容器内部,添加内容如下: kubelet: extra_args:

  • 通过源代码看snap与flatten过程2019-09-03 10:54:44

    cinder和ceph层面对clone、flatten的实现 现在市面上很多讲ceph的书(大多数翻译自ceph中国社区之手),在RBD块存储章节都会对快照、克隆等操作花很多篇幅去描述,基本都是在rbd层通过命令一步步分解rbd clone过程来讲原理。 只是想大概的了解下对云硬盘执行操作在底层是如何实现的,还是由

  • (6)ceph RBD 复制2019-08-28 20:57:19

    Ceph 存储集群可以从RBD的快照中创建写时复制 (COW 副本),这就是 Ceph 的快照分层。 Ceph 的这个分层特性允许客户端创建 Ceph RBD 的多个即时副本, 这个特性对云平台和虚拟化平台非常有 ,例如 OpenStack 、CloudStack 和Qemu/ KVM 这些平台通常'以快照的形式保护含有 OS/VM 镜像的Ceph

  • (5)ceph RBD快照2019-08-28 17:57:07

    Ceph 完全支持快照,它是一个基于时间点的、只读的 RBD 镜像副本。 可以通过创建快照并恢复其原始数据,保存 Ceph RBD 镜像的状态。快照操作:(0)客户端已经map了remote_rbd1 的rbd [root@zabbix71 alertscripts]# rbd showmapped id pool namespace image snap device 0 rbd

  • (3) 在线调整ceph rbd 大小2019-08-26 17:56:37

    ############在线调整ceph RBD 大小##########Ceph 支持自动精简配置的块设备,也就是说 只有当把数据存储到这个块设备时,才会真正地使用物理存储空间,ceph RADOS 设备非常灵活,你可以自由地增加或者减少RBD的容量 当然,这需要底层的文件系统也支持调整容量。高级文件系统(例如 XFS ,Btr

  • (2) ceph 客户端挂载使用RBD2019-08-26 17:00:09

    #创建rdb池子[root@node140 osd]# ceph osd pool create rbd 128 #查看已经创建的pools池[root@node140 osd]# ceph osd lspools1 rdb #初始化pool[root@node140 osd]# rbd pool init rbd #ceph集群中创建remote_rbd71镜像[root@node140 osd]# rbd create remote_data1 --size 100G

  • 【实战演练】Ceph分布式存储系列02-Ceph分布式存储的3种使用方式2019-07-08 16:56:03

    存储设备有三种使用类型,块存储、文件存储、对象存储。Ceph对于上述3中类型的使用方式都支持,需要进行不同的服务端配置与客户端调用。1、块存储1.1服务端配置创建poolceph osd pool create test 32创建块设备rbd create rbd_write --size 1024 --pool test查看pool下面的

  • Openstack-实践3. CloudStack平台迁移OpenStack平台2019-06-29 18:41:31

    1.升级ceph集群的osd网络(cluster  network) 1.1 线上环境 操作系统:ubuntu14.04  ceph版本:jewel版本-10.2.11 部署方式:使用ceph-deploy部署。 5个monitor节点  11台osd节点 1.2  osd网络升级 所用的ceph节点(mon/osd/client节点)的/etc/ceph/ceph.conf  vim /etc/ceph/ceph.con

  • linux编译安装fio(支持rbd引擎)2019-06-22 21:37:52

    安装编译过程:# rpm -qa|egrep 'gcc|wget|librbd'# yum install gcc wget librbd1-devel# wget http://brick.kernel.dk/snaps/fio-3.14.tar.gz ./# tar -zxvf fio-3.14.tar.gz# cd fio-3.14# ./configure.......  Rados engine yes  Rados Block Device engine yes  rbd

  • ceph对接openstack环境(4)2019-06-17 08:50:57

    ceph对接openstack环境   环境准备: 保证openstack节点的hosts文件里有ceph集群的各个主机名,也要保证ceph集群节点有openstack节点的各个主机名   一、使用rbd方式提供存储如下数据:   (1)image:保存glanc中的image;   (2)volume存储:保存cinder的volume;保存创建虚拟机时选择创建新卷;  

  • k8s使用ceph存储2019-05-08 13:49:51

    目录 ceph配置 k8s 配置 通过静态pv,pvc使用ceph 测试多pod挂载静态pv数据不一致问题 StoragaClass 方式 ceph 常用命令 k8s 常用命令 k8s各类端口及IP说明 端口说明 问题 PV访问模式 测试结果 参考 ceph配置 rbd create --size 100 rbd/nginx-image [root@localhost my-

  • 配置Kubernetes共享使用Ceph存储2019-05-01 15:55:19

    目录 简要概述 环境测试 结果验证 简要概述 Kubernetes pod 结合Ceph rbd块设备的使用,让Docker 数据存储在Ceph,重启Docker或k8s RC重新调度pod 不会引起数据来回迁移。 工作原理无非就是拿到ceph集群的key作为认证,远程rbdmap映射挂载使用。那么就要启用一个基于key的secret资

  • CentOS 安装 ceph 单机版2019-04-10 17:37:37

    简介 Ceph是一个分布式存储软件。 它支持用3种方式存储数据,分别是:对象存储、块设备存储、分布式文件系统存储。 Ceph这个软件,分为3层,最底层是Rados对象存储系统、中间是一个librados,也就是一个接口层,对外提供访问Rados对象存储系统的接口API,最上层又提供了三种不同的存储方式:对象存

  • 019 Ceph整合openstack2019-03-30 17:55:00

    一、整合 glance ceph 1.1 查看servverb关于openstack的用户 [root@serverb ~]# vi ./keystonerc_admin unset OS_SERVICE_TOKENexport OS_USERNAME=adminexport OS_PASSWORD=9f0b699989a04a05export OS_AUTH_URL=http://172.25.250.11:5000/v2.0export PS1='[\u@\h \W(keystone

  • kubernetes 直接调用 ceph 作为后端存储2019-03-25 17:51:27

    目的 ceph 作为独立的后端存储 利用 kubernets 连接该 ceph 存储 ceph 自行独立管理 kubernets 只需要获取连接 ceph 的 mon 地址, 只需要具备连接到该 ceph 的用户权限即可 优点 ceph 维护, 管理比较灵活 多个 kubernets 可以连接到相同的一个 ceph 集群中 概念 PV persis

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有