searchusermenu
  • 发布文章
  • 消息中心
点赞
收藏
评论
分享
原创

硬盘IO性能测试的三种方

2024-07-16 09:32:19
128
0
对于I/O的性能测试,基本都是用dd开始的,dd Linux/UNIX 下的一个非常有用的命令,作用是用指定大小的块拷贝一个文件,并在拷贝的同时进行指定的转换。它是缺省的工具,也是最简单的工具,但是没有并行化,对于SSD不友好。

接着进阶的就是IOmeter,在SSD出现之前,IOmeter基本可以满足大部分工作,除了他的Linux版本的I/O generator在早期的时候对LinuxDirect I/O的支持不好。

之后,就是Fio的出现,在目前所有的性能测试工具中,Fio生成一个IO请求的代价是最小的。

1 dd命令测试方法

1.1参数说明
if=file
输入文件名,缺省为标准输入
of=file
输出文件名,缺省为标准输出
ibs=bytes
一次读入 bytes 个字节(即一个块大小为 bytes 个字节)
obs=bytes
一次写 bytes 个字节(即一个块大小为 bytes 个字节)
bs=bytes
同时设置读写块的大小为 bytes ,可代替 ibs obs
cbs=bytes
一次转换 bytes 个字节,即转换缓冲区大小
skip=blocks
从输入文件开头跳过 blocks 个块后再开始复制
seek=blocks
从输出文件开头跳过 blocks 个块后再开始复制(通常只有当输出文件是磁盘或磁带时才有效)
count=blocks
仅拷贝 blocks 个块,块大小等于 ibs 指定的字节数
conv=conversion[,conversion…]
用指定的参数转换文件
iflag=FLAGS
指定读的方式FLAGS,参见“FLAGS参数说明
oflag=FLAGS
指定写的方式FLAGS,参见“FLAGS参数说明
 

1.2 测试磁盘写能力
dd if=/dev/zero of=/opt/iotest bs=4k count=100000
 

因为/dev/zero是一个伪设备,它只产生空字符流,对它不会产生IO,所以,IO都会集中在of文件中,of文件只用于写,所以这个命令相当于测试磁盘的写能力。命令结尾添加oflag=direct将跳过内存缓存,添加oflag=sync将跳过hdd缓存。

1.3 测试磁盘读能力

dd if=/dev/sdb of=/dev/null bs=4k

因为/dev/sdb是一个物理分区,对它的读取会产生IO/dev/null是伪设备,相当于黑洞,of到该设备不会产生IO,所以,这个命令的IO只发生在/dev/sdb上,也相当于测试磁盘的读能力。

1.4 测试同时读写能力

time dd if=/dev/sdb of=/testrw.dbf bs=4k

在这个命令下,一个是物理分区,一个是实际的文件,对它们的读写都会产生IO(对/dev/sdb是读,对/testrw.dbf是写),假设它们都在一个磁盘中,这个命令就相当于测试磁盘的同时读写能力。

1.5 测试纯写入性能

登录后复制

dd if=/dev/zero of=test bs=8k count=10000 oflag=direct

1.

1.6、测试纯读取性能

dd if=test of=/dev/null bs=8k count=10000 iflag=direct

1.

注意:dd 只能提供一个大概的测试结果,而且是连续 I/O 而不是随机 I/O,理论上文件规模越大,测试结果越准确。 同时,iflag/oflag 提供 direct 模式,direct 模式是把写入请求直接封装成 I/O 指令发到磁盘,非 direct 模式只是把数据写入到系统缓存就认为 I/O 成功,并由操作系统决定缓存中的数据什么时候被写入磁盘。

-----------------------------------

Linux 中用 dd 命令来测试硬盘读写速度

https://blog.51cto.com/moerjinrong/2286323

 

 

 

1.1 主要选项

指定数字的地方若以下列字符结尾乘以相应的数字:

b=512, c=1, k=1024, w=2, xm=number m

 

参数       说明

if=file     输入文件名,缺省为标准输入

of=file    输出文件名,缺省为标准输出

ibs=bytes      一次读入 bytes 个字节(即一个块大小为 bytes 个字节)

obs=bytes     一次写 bytes 个字节(即一个块大小为 bytes 个字节)

bs=bytes 同时设置读写块的大小为 bytes ,可代替 ibs obs

cbs=bytes     一次转换 bytes 个字节,即转换缓冲区大小

skip=blocks   从输入文件开头跳过 blocks 个块后再开始复制

seek=blocks  从输出文件开头跳过 blocks 个块后再开始复制(通常只有当输出文件是磁盘或磁带时才有效)

count=blocks 仅拷贝 blocks 个块,块大小等于 ibs 指定的字节数

conv=conversion[,conversion…] 用指定的参数转换文件

iflag=FLAGS   指定读的方式FLAGS,参见“FLAGS参数说明

oflag=FLAGS 指定写的方式FLAGS,参见“FLAGS参数说明

1.2 conv 转换参数:

-----------------------------------

Linux 中用 dd 命令来测试硬盘读写速度

https://blog.51cto.com/moerjinrong/2286323

 

 

 

FIO测试方法

1、安装fio

  在fio官网下载fio-2.1.10.tar文件,解压后./configuremakemake install之后就可以使用fio了。

2fio参数详解
filename=/dev/emcpowerb
支持的文件系统或者设备,-filename=/dev/sda2-filename=/dev/sdb
direct=1
测试过程绕过机器自带的buffer,使测试结果更真实
rw=randwread
测试随机读的I/O
rw=randwrite   
测试随机写的I/O
rw=randrw
测试随机混合写和读的I/O
rw=read
测试顺序读的I/O
rw=write
测试顺序写的I/O
rw=rw 
测试顺序混合写和读的I/O
bs=4k
单次io的块文件大小为4k
bsrange=512-2048
指定数据块的大小范围
size=5g
本次的测试文件大小为5g,以每次4kio进行测试
numjobs=30
本次的测试线程为30
runtime=1000
测试时间为1000秒,如果不写则一直将5g文件分4k每次写完为止
ioengine=psync 
io引擎使用pync方式
rwmixwrite=30
在混合读写的模式下,写占据30%
group_reporting
关于显示结果的,汇总每个进程的信息
lockmem=1g
只使用1g内存进行测试
zero_buffers
0初始化系统buffer
nrfiles=8
每个进程生成文件的数量
 

3fio测试场景及生成报告详解

测试场景:

  100%随机,100%读, 4K
  fio -filename=/dev/emcpowerb -direct=1 -iodepth 1 -thread -rw=randread -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=rand_100read_4k


  100%随机,100%写, 4K
  fio -filename=/dev/emcpowerb -direct=1 -iodepth 1 -thread -rw=randwrite -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=rand_100write_4k


  100%顺序,100%读 ,4K
  fio -filename=/dev/emcpowerb -direct=1 -iodepth 1 -thread -rw=read -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=sqe_100read_4k


  100%顺序,100%写 ,4K
  fio -filename=/dev/emcpowerb -direct=1 -iodepth 1 -thread -rw=write -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=sqe_100write_4k


  100%随机,70%读,30% 4K
  fio -filename=/dev/emcpowerb -direct=1 -iodepth 1 -thread -rw=randrw -rwmixread=70 -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=randrw_70read_4k



[root@rac01-node02]# fio -filename=/dev/sdc4 -direct=1 -iodepth 1 -thread -rw=randrw -rwmixread=70 -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=randrw_70read_4k_local

randrw_70read_4k_local: (g=0): rw=randrw, bs=4K-4K/4K-4K/4K-4K, ioengine=psync, iodepth=1

...

fio-2.1.10

Starting 50 threads

Jobs: 21 (f=21): [____m____m_m___m____mmm__mmm__mm_m_mmm_m__m__m_m_m] [3.4% done] [7004KB/2768KB/0KB /s] [1751/692/0 iops] [eta 01h:27m:00s]

randrw_70read_4k_local: (groupid=0, jobs=50): err= 0: pid=13710: Wed May 31 10:23:31 2017

  read : io=1394.2MB, bw=7926.4KB/s, iops=1981, runt=180113msec

    clat (usec): min=39, max=567873, avg=24323.79, stdev=25645.98

     lat (usec): min=39, max=567874, avg=24324.23, stdev=25645.98

    clat percentiles (msec):

     |  1.00th=[    3],  5.00th=[    5], 10.00th=[    6], 20.00th=[    7],

     | 30.00th=[    9], 40.00th=[   12], 50.00th=[   16], 60.00th=[   21],

     | 70.00th=[   27], 80.00th=[   38], 90.00th=[   56], 95.00th=[   75],

     | 99.00th=[  124], 99.50th=[  147], 99.90th=[  208], 99.95th=[  235],

     | 99.99th=[  314]

    bw (KB  /s): min=   15, max=  537, per=2.00%, avg=158.68, stdev=38.08

  write: io=615280KB, bw=3416.8KB/s, iops=854, runt=180113msec

    clat (usec): min=167, max=162537, avg=2054.79, stdev=7665.24

     lat (usec): min=167, max=162537, avg=2055.38, stdev=7665.23

    clat percentiles (usec):

     |  1.00th=[  201],  5.00th=[  227], 10.00th=[  249], 20.00th=[  378],

     | 30.00th=[  548], 40.00th=[  692], 50.00th=[  844], 60.00th=[  996],

     | 70.00th=[ 1160], 80.00th=[ 1304], 90.00th=[ 1720], 95.00th=[ 3856],

     | 99.00th=[40192], 99.50th=[58624], 99.90th=[98816], 99.95th=[123392],

     | 99.99th=[148480]

    bw (KB  /s): min=    6, max=  251, per=2.00%, avg=68.16, stdev=29.18

    lat (usec) : 50=0.01%, 100=0.03%, 250=3.15%, 500=5.00%, 750=5.09%

    lat (usec) : 1000=4.87%

    lat (msec) : 2=9.64%, 4=4.06%, 10=21.42%, 20=18.08%, 50=19.91%

    lat (msec) : 100=7.24%, 250=1.47%, 500=0.03%, 750=0.01%

  cpu          : usr=0.07%, sys=0.21%, ctx=522490, majf=0, minf=7

  IO depths    : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%

     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%

     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%

     issued    : total=r=356911/w=153820/d=0, short=r=0/w=0/d=0

     latency   : target=0, window=0, percentile=100.00%, depth=1

 

Run status group 0 (all jobs):

   READ: io=1394.2MB, aggrb=7926KB/s, minb=7926KB/s, maxb=7926KB/s, mint=180113msec, maxt=180113msec

  WRITE: io=615280KB, aggrb=3416KB/s, minb=3416KB/s, maxb=3416KB/s, mint=180113msec, maxt=180113msec

 

Disk stats (read/write):

  sdc: ios=356874/153927, merge=0/10, ticks=8668598/310288, in_queue=8978582, util=99.99%

 

io=执行了多少MIO

bw=平均IO带宽
iops=IOPS
runt=
线程运行时间
slat=
提交延迟
clat=
完成延迟
lat=
响应时间
bw=
带宽
cpu=
利用率
IO depths=io
队列
IO submit=
单个IO提交要提交的IO
IO complete=Like the above submit number, but for completions instead.
IO issued=The number of read/write requests issued, and how many of them were short.
IO latencies=IO
完延迟的分布


io=总共执行了多少sizeIO
aggrb=group
总带宽
minb=
最小.平均带宽.
maxb=
最大平均带宽.
mint=group
中线程的最短运行时间.
maxt=group
中线程的最长运行时间.


ios=所有group总共执行的IO.
merge=
总共发生的IO合并数.
ticks=Number of ticks we kept the disk busy.
io_queue=
花费在队列上的总共时间.
util=
磁盘利用率


 
0条评论
0 / 1000
乘风
12文章数
2粉丝数
乘风
12 文章 | 2 粉丝
原创

硬盘IO性能测试的三种方

2024-07-16 09:32:19
128
0
对于I/O的性能测试,基本都是用dd开始的,dd Linux/UNIX 下的一个非常有用的命令,作用是用指定大小的块拷贝一个文件,并在拷贝的同时进行指定的转换。它是缺省的工具,也是最简单的工具,但是没有并行化,对于SSD不友好。

接着进阶的就是IOmeter,在SSD出现之前,IOmeter基本可以满足大部分工作,除了他的Linux版本的I/O generator在早期的时候对LinuxDirect I/O的支持不好。

之后,就是Fio的出现,在目前所有的性能测试工具中,Fio生成一个IO请求的代价是最小的。

1 dd命令测试方法

1.1参数说明
if=file
输入文件名,缺省为标准输入
of=file
输出文件名,缺省为标准输出
ibs=bytes
一次读入 bytes 个字节(即一个块大小为 bytes 个字节)
obs=bytes
一次写 bytes 个字节(即一个块大小为 bytes 个字节)
bs=bytes
同时设置读写块的大小为 bytes ,可代替 ibs obs
cbs=bytes
一次转换 bytes 个字节,即转换缓冲区大小
skip=blocks
从输入文件开头跳过 blocks 个块后再开始复制
seek=blocks
从输出文件开头跳过 blocks 个块后再开始复制(通常只有当输出文件是磁盘或磁带时才有效)
count=blocks
仅拷贝 blocks 个块,块大小等于 ibs 指定的字节数
conv=conversion[,conversion…]
用指定的参数转换文件
iflag=FLAGS
指定读的方式FLAGS,参见“FLAGS参数说明
oflag=FLAGS
指定写的方式FLAGS,参见“FLAGS参数说明
 

1.2 测试磁盘写能力
dd if=/dev/zero of=/opt/iotest bs=4k count=100000
 

因为/dev/zero是一个伪设备,它只产生空字符流,对它不会产生IO,所以,IO都会集中在of文件中,of文件只用于写,所以这个命令相当于测试磁盘的写能力。命令结尾添加oflag=direct将跳过内存缓存,添加oflag=sync将跳过hdd缓存。

1.3 测试磁盘读能力

dd if=/dev/sdb of=/dev/null bs=4k

因为/dev/sdb是一个物理分区,对它的读取会产生IO/dev/null是伪设备,相当于黑洞,of到该设备不会产生IO,所以,这个命令的IO只发生在/dev/sdb上,也相当于测试磁盘的读能力。

1.4 测试同时读写能力

time dd if=/dev/sdb of=/testrw.dbf bs=4k

在这个命令下,一个是物理分区,一个是实际的文件,对它们的读写都会产生IO(对/dev/sdb是读,对/testrw.dbf是写),假设它们都在一个磁盘中,这个命令就相当于测试磁盘的同时读写能力。

1.5 测试纯写入性能

登录后复制

dd if=/dev/zero of=test bs=8k count=10000 oflag=direct

1.

1.6、测试纯读取性能

dd if=test of=/dev/null bs=8k count=10000 iflag=direct

1.

注意:dd 只能提供一个大概的测试结果,而且是连续 I/O 而不是随机 I/O,理论上文件规模越大,测试结果越准确。 同时,iflag/oflag 提供 direct 模式,direct 模式是把写入请求直接封装成 I/O 指令发到磁盘,非 direct 模式只是把数据写入到系统缓存就认为 I/O 成功,并由操作系统决定缓存中的数据什么时候被写入磁盘。

-----------------------------------

Linux 中用 dd 命令来测试硬盘读写速度

https://blog.51cto.com/moerjinrong/2286323

 

 

 

1.1 主要选项

指定数字的地方若以下列字符结尾乘以相应的数字:

b=512, c=1, k=1024, w=2, xm=number m

 

参数       说明

if=file     输入文件名,缺省为标准输入

of=file    输出文件名,缺省为标准输出

ibs=bytes      一次读入 bytes 个字节(即一个块大小为 bytes 个字节)

obs=bytes     一次写 bytes 个字节(即一个块大小为 bytes 个字节)

bs=bytes 同时设置读写块的大小为 bytes ,可代替 ibs obs

cbs=bytes     一次转换 bytes 个字节,即转换缓冲区大小

skip=blocks   从输入文件开头跳过 blocks 个块后再开始复制

seek=blocks  从输出文件开头跳过 blocks 个块后再开始复制(通常只有当输出文件是磁盘或磁带时才有效)

count=blocks 仅拷贝 blocks 个块,块大小等于 ibs 指定的字节数

conv=conversion[,conversion…] 用指定的参数转换文件

iflag=FLAGS   指定读的方式FLAGS,参见“FLAGS参数说明

oflag=FLAGS 指定写的方式FLAGS,参见“FLAGS参数说明

1.2 conv 转换参数:

-----------------------------------

Linux 中用 dd 命令来测试硬盘读写速度

https://blog.51cto.com/moerjinrong/2286323

 

 

 

FIO测试方法

1、安装fio

  在fio官网下载fio-2.1.10.tar文件,解压后./configuremakemake install之后就可以使用fio了。

2fio参数详解
filename=/dev/emcpowerb
支持的文件系统或者设备,-filename=/dev/sda2-filename=/dev/sdb
direct=1
测试过程绕过机器自带的buffer,使测试结果更真实
rw=randwread
测试随机读的I/O
rw=randwrite   
测试随机写的I/O
rw=randrw
测试随机混合写和读的I/O
rw=read
测试顺序读的I/O
rw=write
测试顺序写的I/O
rw=rw 
测试顺序混合写和读的I/O
bs=4k
单次io的块文件大小为4k
bsrange=512-2048
指定数据块的大小范围
size=5g
本次的测试文件大小为5g,以每次4kio进行测试
numjobs=30
本次的测试线程为30
runtime=1000
测试时间为1000秒,如果不写则一直将5g文件分4k每次写完为止
ioengine=psync 
io引擎使用pync方式
rwmixwrite=30
在混合读写的模式下,写占据30%
group_reporting
关于显示结果的,汇总每个进程的信息
lockmem=1g
只使用1g内存进行测试
zero_buffers
0初始化系统buffer
nrfiles=8
每个进程生成文件的数量
 

3fio测试场景及生成报告详解

测试场景:

  100%随机,100%读, 4K
  fio -filename=/dev/emcpowerb -direct=1 -iodepth 1 -thread -rw=randread -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=rand_100read_4k


  100%随机,100%写, 4K
  fio -filename=/dev/emcpowerb -direct=1 -iodepth 1 -thread -rw=randwrite -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=rand_100write_4k


  100%顺序,100%读 ,4K
  fio -filename=/dev/emcpowerb -direct=1 -iodepth 1 -thread -rw=read -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=sqe_100read_4k


  100%顺序,100%写 ,4K
  fio -filename=/dev/emcpowerb -direct=1 -iodepth 1 -thread -rw=write -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=sqe_100write_4k


  100%随机,70%读,30% 4K
  fio -filename=/dev/emcpowerb -direct=1 -iodepth 1 -thread -rw=randrw -rwmixread=70 -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=randrw_70read_4k



[root@rac01-node02]# fio -filename=/dev/sdc4 -direct=1 -iodepth 1 -thread -rw=randrw -rwmixread=70 -ioengine=psync -bs=4k -size=1000G -numjobs=50 -runtime=180 -group_reporting -name=randrw_70read_4k_local

randrw_70read_4k_local: (g=0): rw=randrw, bs=4K-4K/4K-4K/4K-4K, ioengine=psync, iodepth=1

...

fio-2.1.10

Starting 50 threads

Jobs: 21 (f=21): [____m____m_m___m____mmm__mmm__mm_m_mmm_m__m__m_m_m] [3.4% done] [7004KB/2768KB/0KB /s] [1751/692/0 iops] [eta 01h:27m:00s]

randrw_70read_4k_local: (groupid=0, jobs=50): err= 0: pid=13710: Wed May 31 10:23:31 2017

  read : io=1394.2MB, bw=7926.4KB/s, iops=1981, runt=180113msec

    clat (usec): min=39, max=567873, avg=24323.79, stdev=25645.98

     lat (usec): min=39, max=567874, avg=24324.23, stdev=25645.98

    clat percentiles (msec):

     |  1.00th=[    3],  5.00th=[    5], 10.00th=[    6], 20.00th=[    7],

     | 30.00th=[    9], 40.00th=[   12], 50.00th=[   16], 60.00th=[   21],

     | 70.00th=[   27], 80.00th=[   38], 90.00th=[   56], 95.00th=[   75],

     | 99.00th=[  124], 99.50th=[  147], 99.90th=[  208], 99.95th=[  235],

     | 99.99th=[  314]

    bw (KB  /s): min=   15, max=  537, per=2.00%, avg=158.68, stdev=38.08

  write: io=615280KB, bw=3416.8KB/s, iops=854, runt=180113msec

    clat (usec): min=167, max=162537, avg=2054.79, stdev=7665.24

     lat (usec): min=167, max=162537, avg=2055.38, stdev=7665.23

    clat percentiles (usec):

     |  1.00th=[  201],  5.00th=[  227], 10.00th=[  249], 20.00th=[  378],

     | 30.00th=[  548], 40.00th=[  692], 50.00th=[  844], 60.00th=[  996],

     | 70.00th=[ 1160], 80.00th=[ 1304], 90.00th=[ 1720], 95.00th=[ 3856],

     | 99.00th=[40192], 99.50th=[58624], 99.90th=[98816], 99.95th=[123392],

     | 99.99th=[148480]

    bw (KB  /s): min=    6, max=  251, per=2.00%, avg=68.16, stdev=29.18

    lat (usec) : 50=0.01%, 100=0.03%, 250=3.15%, 500=5.00%, 750=5.09%

    lat (usec) : 1000=4.87%

    lat (msec) : 2=9.64%, 4=4.06%, 10=21.42%, 20=18.08%, 50=19.91%

    lat (msec) : 100=7.24%, 250=1.47%, 500=0.03%, 750=0.01%

  cpu          : usr=0.07%, sys=0.21%, ctx=522490, majf=0, minf=7

  IO depths    : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%

     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%

     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%

     issued    : total=r=356911/w=153820/d=0, short=r=0/w=0/d=0

     latency   : target=0, window=0, percentile=100.00%, depth=1

 

Run status group 0 (all jobs):

   READ: io=1394.2MB, aggrb=7926KB/s, minb=7926KB/s, maxb=7926KB/s, mint=180113msec, maxt=180113msec

  WRITE: io=615280KB, aggrb=3416KB/s, minb=3416KB/s, maxb=3416KB/s, mint=180113msec, maxt=180113msec

 

Disk stats (read/write):

  sdc: ios=356874/153927, merge=0/10, ticks=8668598/310288, in_queue=8978582, util=99.99%

 

io=执行了多少MIO

bw=平均IO带宽
iops=IOPS
runt=
线程运行时间
slat=
提交延迟
clat=
完成延迟
lat=
响应时间
bw=
带宽
cpu=
利用率
IO depths=io
队列
IO submit=
单个IO提交要提交的IO
IO complete=Like the above submit number, but for completions instead.
IO issued=The number of read/write requests issued, and how many of them were short.
IO latencies=IO
完延迟的分布


io=总共执行了多少sizeIO
aggrb=group
总带宽
minb=
最小.平均带宽.
maxb=
最大平均带宽.
mint=group
中线程的最短运行时间.
maxt=group
中线程的最长运行时间.


ios=所有group总共执行的IO.
merge=
总共发生的IO合并数.
ticks=Number of ticks we kept the disk busy.
io_queue=
花费在队列上的总共时间.
util=
磁盘利用率


 
文章来自个人专栏
服务器硬件
12 文章 | 1 订阅
0条评论
0 / 1000
请输入你的评论
0
0