searchusermenu
  • 发布文章
  • 消息中心
点赞
收藏
评论
分享
原创

ZFS raid10本地盘容灾能力验证

2023-07-03 02:50:31
71
0

需要验证zfs在坏盘、掉盘的情况下的容灾能力。因为要模拟磁盘拔盘操作,准备一个虚拟机环境,12块2g大小的scsi虚拟盘,做一个raid10模式的zfs存储池,每块盘都有一个备份盘,如下

zpool create tank-hdd mirror sdb sdc mirror sdd sde mirror sdf sdg mirror sdh sdi mirror sdj sdk mirror sdl sdm

创建zfs目录,复制一个4.3g文件CentOS-7-x86_64-DVD-1810.iso进去,数据分摊到12块盘如下

现在模拟拔掉盘sdb,然后执行zpool scrub tank-hdd刷新存储池

如图存储池的sdb盘已经显示为unavail,但文件依然正常访问,因为sdb的备份盘sdc是正常的

然后模拟拔掉盘sdc,然后执行zpool scrub tank-hdd刷新存储池

这时存储池就会变成unavail状态,完全不可用,因为sdb、sdc互为备份盘都被拔掉了

然后模拟把sdb、sdc都先插回去

然后执行zpool clear tank-hdd恢复存储池为online状态

所以理论上只能拔掉6块盘,并且这6块盘不能互为备份,模拟拔掉sdb、sdd、sdf、sdh、sdj、sdl 6块盘

可以看到文件数据依然可以访问

总结:

当zfs部署使用raid10模式,假如有2n块盘,每2块盘互为备份,那么最多可以拔掉或损坏n块盘,并且n块盘中不能有互为备份的盘。所以当收到zfs监控磁盘损坏告警时,应该马上通过zpool replace替换损坏盘,保证同一时间2块盘同时互为备份。

0条评论
0 / 1000
刘****健
8文章数
1粉丝数
刘****健
8 文章 | 1 粉丝
刘****健
8文章数
1粉丝数
刘****健
8 文章 | 1 粉丝
原创

ZFS raid10本地盘容灾能力验证

2023-07-03 02:50:31
71
0

需要验证zfs在坏盘、掉盘的情况下的容灾能力。因为要模拟磁盘拔盘操作,准备一个虚拟机环境,12块2g大小的scsi虚拟盘,做一个raid10模式的zfs存储池,每块盘都有一个备份盘,如下

zpool create tank-hdd mirror sdb sdc mirror sdd sde mirror sdf sdg mirror sdh sdi mirror sdj sdk mirror sdl sdm

创建zfs目录,复制一个4.3g文件CentOS-7-x86_64-DVD-1810.iso进去,数据分摊到12块盘如下

现在模拟拔掉盘sdb,然后执行zpool scrub tank-hdd刷新存储池

如图存储池的sdb盘已经显示为unavail,但文件依然正常访问,因为sdb的备份盘sdc是正常的

然后模拟拔掉盘sdc,然后执行zpool scrub tank-hdd刷新存储池

这时存储池就会变成unavail状态,完全不可用,因为sdb、sdc互为备份盘都被拔掉了

然后模拟把sdb、sdc都先插回去

然后执行zpool clear tank-hdd恢复存储池为online状态

所以理论上只能拔掉6块盘,并且这6块盘不能互为备份,模拟拔掉sdb、sdd、sdf、sdh、sdj、sdl 6块盘

可以看到文件数据依然可以访问

总结:

当zfs部署使用raid10模式,假如有2n块盘,每2块盘互为备份,那么最多可以拔掉或损坏n块盘,并且n块盘中不能有互为备份的盘。所以当收到zfs监控磁盘损坏告警时,应该马上通过zpool replace替换损坏盘,保证同一时间2块盘同时互为备份。

文章来自个人专栏
ZFS
1 文章 | 1 订阅
0条评论
0 / 1000
请输入你的评论
0
0