Without the continuous bitter cold, there can be no fragrant plum blossom
访问量(1547821) 积分(1957) 等级(核心会员) 排名(4)
Ceph-Lazy工具介绍及使用 1 介绍 Ceph-lazy目前分为五类:主机 - PG - RBD - OSD和对象; 每个类别提供了多个命令。 可以使用-h选项或不带任何参数调用ceph-lazy来查看命令列表。 类别主要指输入类型,例如主机类别将在主机级获取信息,而RBD将报告RBD信息; 很明显 Ceph CLI非常完整,它几乎可以做任何事情。 然而,有一些任务需要两个或更多的...
2017-01-22 16:56 3805 0
公式: ( Target PGs per OSD ) x ( OSD # ) x ( %Data ) PoolPGCount = ------------------------------------------------------- ( Size ) 参数说明: 名称 说明 备注 PoolPGCount 单个Pool的PG数量 Target PGs per OSD 每个OSD的PGS数量 1.如果未来集群的OSD...
2017-01-17 17:32 8185 0
1 Ceph存储类型介绍 Ceph提供了三种存储类型:块存储、文件存储和对象存储,本文主要介绍对象存储的RGW基本原理和应用场景。本文的主题就是RGW(对象存储)。 对象存储(云存储)是面向对象/文件的、海量的互联网存储。对象存储里的对象是经过封装了的文件,在对象存储系统里, 不能直接打开/修改文件,但可以像ftp一样上传文件,下载文件等。另外...
2017-01-13 11:16 6524 0
很多年以前,Sage 在写CRUSH的原始算法的时候,写了不同的Bucket类型,可以选择不同的伪随机选择算法,大部分的模型是基于RJ Honicky写的RUSH algorithms 这个算法,这个在网上可以找到资料,这里面有一个新的特性是sage很引以为豪的,straw算法,也就是我们现在常用的一些算法,这个算法有下面的特性: items 可以有任意的weight 选择一个项目...
2017-01-13 09:35 3927 0
Ceph文件系统的创建 Ceph文件系统(Ceph FS)是一个符合POSIX的文件系统,使用Ceph存储集群来存储其数据。 Ceph文件系统使用与Ceph块设备相同的Ceph存储集群系统,Ceph对象存储及其S3和Swift API或本机绑定(librados)。 使用Ceph文件系统在Ceph存储集群中至少需要一个Ceph元数据服务器。 1 MDS(METADATA SERVER)-元数据服务器 要运行Ceph...
2017-01-06 18:15 5181 0
一、OSD模块简介 1.1 消息封装:在OSD上发送和接收信息。 cluster_messenger -与其它OSDs和monitors沟通 client_messenger -与客户端沟通 1.2 消息调度: Dispatcher类,主要负责消息分类 1.3 工作队列: 1.3.1 OpWQ: 处理ops(从客户端)和sub ops(从其他的OSD)。运行在op_tp线程池。 1.3.2 PeeringWQ: 处理peering任务,运行在op_tp线程池...
2016-12-25 12:54 3577 0
1 方案介绍 存储节点上既有SATA盘也有SSD盘或者是PCIE,就是把每台服务器上的SSD,PCIE和SATA分别整合成独立的存储池,以提供不同性能的存储。但是不同于快慢存储方案,这个而是依据Ceph读写流程(如图),把主副本放在SSD组成的Bucket里,其他副本放在SATA设备里。就可以充分利用设备,降低成本还能提升性能。 只需要在快慢存储搭配的方案上稍加...
2016-12-25 11:45 2893 0
1 方案介绍 存储节点上既有SATA盘也有SSD盘或者是PCIE,就是把每台服务器上的SSD,PCIE和SATA分别整合成独立的存储池,以提供不同性能的存储。把对实时数据IO要求高的放入SSD存储池中。而对于备份,快照等数据,对IO性能要求较低的可以放入SATA盘。 1 硬件环境 存储节点主机名 Osd编号 对应设备 存储类型 Ceph-osd1 O Sdb SSD Ceph-osd1 1 Sdc ...
2016-12-24 11:43 4518 0
经常有开发者在邮件列表中会问到Ceph Snapshot的实现方式,受限于目前有限的实现文档和复杂的代码结构和代码量,弄清楚Ceph Snapshot并不是一件容易的事。正好最近在重构Ceph存储引擎层的DBObjectMap,涉及到处理Snapshot间clone的问题,重新梳理了一次在Ceph IO路径中占了非常大比重的snapshot相关代码流程,在这里并不会重点展现里面的代码或...
2016-12-14 21:35 3518 0
# -*- coding: UTF-8 -*- import os import sys import json import psutil import commands from prettytable import PrettyTable def main(): if len(sys.argv) == 1: printosdmemtable("table") elif sys.argv[1] == 'json': printosdmemtable("json") def printosdmemtable(chosse): d
2016-12-11 22:09 3398 0
记录一个小问题,之前对集群做了一个操作,就是停止一个OSD,然后不让集群进行数据迁移的。 [root@ceph-osd1 XinFusion]# ceph osd set noout 然后出现了下面的问题,然后不知道咋该回来了。哎 noout,sortbitwise flag(s) set [root@ceph-osd1 XinFusion]# ceph -s cluster 21ed0f42-69d2-450c-babf-b1a44c1b82e4 health HEALTH_WARN...
2016-12-08 20:26 6828 0
很多的用户在提到 Ceph 性能的时候都会提到“写放大”这点,实际上就是 FileJournal 在起作用。只要使用默认的 FileStore,所有数据包括 metadata 都会在 FileJournal 上预写一份。那么本文就会介绍 FileJournal 在 FileStore 存储引擎上提供的作用。 作用 FileJournal 就是数据库中常见的 WAL(Write Ahead Log) 实现,主要提供了事务的一致性和...
2016-12-01 09:35 2861 0
Ceph的OSD的分区表恢复 对于误操作造成的事故是比较多的,ceph中对于新手更是如此。老手也会敲错啊。 1.实验 估计破坏环境,已达到实验的目的。 1.1查看正常分区信息 破坏之前先查看ceph OSD分区 [root@ceph-osd1 ~]# ceph-disk list /dev/dm-0 other, xfs, mounted on / /dev/dm-1 swap, swap /dev/sda : /dev/sda2 other, LVM2_membe...
2016-11-25 19:19 5103 0
RBD 使用容量查询及属性的添加,删除 在使用ceph块存储时,使用rbd创建image是不可避免的。不过由于一些操作系统内核不是最新的,对于一些rbd 的新属性不支持,所以在默认创建rbd的时候就需要指定启用其中某些属性。或者对于已经创建过的image进行修改属性。 在统计rbd使用容量时也有几种不同的方法。 1.计算RBD使用容量 1.1使用rbd du 例...
2016-11-24 15:13 10515 0
Ceph的参数mon_osd_down_out_subtree_limit测试 1.参数解释 自动标记为out的最大的CRUSH单位类型(默认rack),下面实验来说明参数的作用。 2.环境准备 #修改一个参数 mon_osd_down_out_interval = 20 调整这个参数为20s,默认为300s,默认一个osd,down超过300s就会标记为out,然后触发out迁移。 为了实验尽快看到效果。 3.实验测试 3.1参数修改...
2016-11-24 12:08 6778 0