玩命加载中 . . .

热插拔设备 热插拔设备
概述 测试中碰到破坏RAID或下线磁盘的场景,需要从设备上拔盘,然后等产品侦测到对应Disk或VD异常后,再插回去,验证程序侦测及时性是否存在问题。 由于要频繁的进出机房进行设备的拔出与插回操作,比较麻烦,是否有更便捷的方式进行操作呢? 本
2020-07-10
获取系统中所有的pid 获取系统中所有的pid
概述 Linux进程的pid,会在/proc目录下产生对应pid目录,如果想获取当前系统所有的pid,可以到此目录下去找。 本文介绍几种方法,获取到所有的pid。 实践 方法1. grep ls /proc/ | grep ^[0-9]
2020-07-08
利用oceanfile批量构造文件并统计cephfs速度 利用oceanfile批量构造文件并统计cephfs速度
概述 前段时间RD优化了rocksdb,S3的性能有显著提升,在此基础上,利用RD自研工具验证cepfhs 写速度,每间隔5million个文件进行一次写速度的统计。 shell script 直接上脚本,参考如下: root@node76
2020-07-06
awk引用shell中变量 awk引用shell中变量
概述 在网上找了一个统计pool下pg分布的脚本,拿来使用了一下,发现可以在ceph J版上执行,在L版报错,原脚本内容参考如下: ceph pg dump | egrep -v "^[0-9]* " | awk ' /^pg_stat/
shell随机数生成的几种方法 shell随机数生成的几种方法
概述 今天验证在对存储不断灌S3 10K小对象数据情况下,对设备强制断电,观察是否引发ceph-osd crash问题,简易写了个临时命令完成检查操作,如下: for i in {1..100}; do echo "============
2020-07-01
shell完成一次ceph-osd crash验证 shell完成一次ceph-osd crash验证
概述 最近在测试ceph rocksdb性能优化效果,由于频繁的重启机器(ipmitool power off),出现了两次ceph-osd replay crash问题,由于频繁的power off太伤机器了,验证完毕rocksdb性能优
2020-07-01
shell中|&含义 shell中|&含义
概述 今天细看了同事Henry编写的一个shell脚本,看到如下片断内容: while (( $(${CLI} info |& grep PROCESSING | wc -l) >= 1 )); do
2020-06-30
wc统计为何少了一行 wc统计为何少了一行
概述 使用wc统计文件时,发现文件数量总是少一行,原因何在? 实践 准备工作 分布准备两个文件,一个是Linux平台下通过vi写入的,一个文件是在windows平台,通过记事本写入的,内容如下: root@node244:~/test# c
2020-06-29
统计两个时间的时间差 统计两个时间的时间差
概述 最近在跑cosbench,由于OS根分区空间满,导致cosbench任务失败,误删了一部分cosbench archive记录,但controller html页面还是能展示这部分数据记录的片段信息,比如任务的提交时间,起始时间与结束
2020-06-28
快速获取Lab中哪些IPMI IP地址被使用 快速获取Lab中哪些IPMI IP地址被使用
概述 Lab里有一大批设备,每个设备都配置了IPMI地址,虽然Office提供了一个在线的excel供大家编辑,但未必每个人都会定期去更新它(因为设备偶尔有进有出),时间久了就会发现excel记录太旧了。 本文不是介绍如何定期更新excel
2020-06-23
频繁启用&停用ES服务,出现local-fs.target failed with result dependency 频繁启用&停用ES服务,出现local-fs.target failed with result dependency
概述 Ubuntu16.04,产品新增了Elasticsearch功能,在测试ES服务启用过程冲,选择240G 的Intel S4510 型号的SSD一块作为ES的data: Model Family: Intel S4510/S4
ceph S3 多租户 ceph S3 多租户
什么是multi-tenancy 在J版之前,同一个ceph集群中不允许有同名的bucket和S3账号的存在,从J版本开始,引入multi-tenancy功能,使得不同tenant(租户)下的账号和bucket可以同名,为了兼容J之前的版本
2020-06-16
«1 ... 18 19 20 21 22 23 24 25 ... 39»