玩命加载中 . . .

获取ceph PG 分布 获取ceph PG 分布
概述 第一版 #!/bin/bash ceph_version=`ceph -v | awk '\{\{print \$3\}\}'` if [[ ${ceph_version} =~ '10.' ]]; then pg_sta
2022-05-19
Monitor mds failed Monitor mds failed
Scripts monitor_mds_failed.sh #!/bin/bash if read -t 5 -p "WARN: Have you confirmed that the maximum number of active-m
2021-11-04
因存在多文件系统导致OSD启用失败 因存在多文件系统导致OSD启用失败
概述 今天在创建OSD并启用它的时候,出现了如下一个错误: [2020-08-31 10:23:32,948] [ERROR] [2163] [ezs3.storage_volume] [enable:816] enable osd fai
2020-08-31
mds damaged test script mds damaged test script
Overview The product introduces multiple mds, and each cephfs is allowed to set the upper limit to 6 mds number, i.e., u
2020-08-26
shell完成一次ceph-osd crash验证 shell完成一次ceph-osd crash验证
概述 最近在测试ceph rocksdb性能优化效果,由于频繁的重启机器(ipmitool power off),出现了两次ceph-osd replay crash问题,由于频繁的power off太伤机器了,验证完毕rocksdb性能优
2020-07-01
awk引用shell中变量 awk引用shell中变量
概述 在网上找了一个统计pool下pg分布的脚本,拿来使用了一下,发现可以在ceph J版上执行,在L版报错,原脚本内容参考如下: ceph pg dump | egrep -v "^[0-9]* " | awk ' /^pg_stat/
ceph S3 多租户 ceph S3 多租户
什么是multi-tenancy 在J版之前,同一个ceph集群中不允许有同名的bucket和S3账号的存在,从J版本开始,引入multi-tenancy功能,使得不同tenant(租户)下的账号和bucket可以同名,为了兼容J之前的版本
2020-06-16
SSD盘符漂移导致OSD down场景模拟与恢复 SSD盘符漂移导致OSD down场景模拟与恢复
前言 运维团队反馈一个问题,现象是: 某个OSD对应的cache分区发生了变化,比如原来cache使用的分区是/dev/sde,后来还是这块盘,但分区信息不知何故,变成了/dev/sdf(产品OSD设备并不是根据分区名称来map,而是根据p
2020-01-10
如何快速知道S3存储性能 如何快速知道S3存储性能
前言 当ceph S3集群搭建成功后,想知道当前存储的RGW性能如何, 如何快速评估呢? 本文介绍3种方法: s3cmd并发 rest-bench cosbench s3cmd 快速评估 详请参考我同事Bean的blog:
2019-12-30
统计cosbench每个任务的IOPS和耗时 统计cosbench每个任务的IOPS和耗时
前言 近期针对前方客户提出的具体S3测试要求,测试了一下S3性能,使用的是cosbench工具。在测试过程中,排除客户的要求外,我们自身也想知道,当前硬件条件下,每间隔1,000,00,00个object,IOPS和耗时是多久,比如:1到1
Summary of S3 Sample Summary of S3 Sample
Overview When verifying some features of S3, you often need to use some basic operations, for this reason, record these
perf检查ceph-osd CPU使用率高问题 perf检查ceph-osd CPU使用率高问题
前言 今天早晨 QA 发现 LAB里的一套集群环境里,124~128集群里面,128节点ceph-osd cpu load重,CPU使用率是 200%~400% 之间。 我用strace 粗略地看了下,没看出什么端倪。只能上perf了。
2019-05-06
«1 2