RAID 2.0的可靠性疑虑
2017-10-19 15:25 浏览: 次以前小编写过一篇关于详细解析Raid0、Raid0+1、Raid1、Raid5四者的区别,今天来介绍下RAID2.0可靠性, RAID2.0架构的基本原理,是透过分散式虚拟区块技术,将资料打散到更多硬盘上,藉由让更多硬盘参与RAID群组,来提高系统重建效能,硬盘数量越多,速度也越快。
但由此衍生出的一个疑虑,便是出现硬盘失效的机率,将随着系统硬盘数量的增加而大幅提高。
每台硬盘都存在着一定的失效机率,群组内的硬盘数量越多,累积出现硬盘失效的机率也越高。例如使用一个4台硬盘组成的RAID 5群组时,出现2台硬盘同时失效、导致系统无法回复的机率是很小的;但如果透过RAID 2.0把同样的资料打散到100台硬盘上,这100台硬盘累积出现2台硬盘故障的机率,将会大幅增加几十倍。所以,RAID 2.0出现硬盘故障的机率是增加的。
举例来说,以同样使用40台硬盘,搭配使用容许一台硬盘失效的RAID 5组态为基准,RAID 2.0的做法是将40台硬盘全构成为一个磁盘群组,而传统RAID 5则通常是将40台硬盘,分别组成8个各含5台硬盘的群组。就硬盘失效机率来说,若整个系统硬盘总数相同(40台),在全系统层级出现硬盘失效的机率也相同,传统RAID与RAID 2.0之间没有差异。
但就建立LUN所在的RAID群组层级来说,传统RAID 5的小群组(5台硬盘),遇上硬盘失效的机率,要比RAID 2.0的40台硬盘大群组低的多。而就容错能力来看,RAID 2.0整个40台硬盘的磁碟群组在RAID 5组态下,只能承受1台硬盘失效,而传统RAID 5架构,则是8个RAID 5群组各自都能承受1台硬盘失效。不过当出现1台硬盘失效后时,RAID 2.0由于能动用全部剩余完好硬盘(39台)共同进行重建作业,速度要比只能动用个别RAID 5群组剩余硬盘(4台)进行重建的传统RAID快上许多。
就系统可靠性指标来说,考虑到失效维护时间的平均失效间隔(MTBF),是出现故障机率的平均失效间隔(MTTF),加上执行修护、恢复正常运作所需时间长短的平均维修间隔(MTTR)之和。RAID 2.0的MTTF要比传统RAID更差(随硬盘数量增加成反比),但MTTR却远低于传统RAID(重建恢复正常的速度快了10~20倍),一增一减之下,在全系统层级,RAID 2.0的可靠性仍等同或优于传统RAID。
但是在个别LUN的层级,传统RAID的LUN是位于少数几台硬盘组成的RAID群组内,而RAID 2.0的LUN是位于几十台硬盘组成的大群组内,所以LUN的可靠性反而是降低了。
考虑到这个问题,当使用RAID 2.0时,最好搭配使用容错能力较高的RAID 6组态,并限制磁盘群组规模,以抑制LUN失效机率。
【免责声明】:部分内容、图片来源于互联网,如有侵权请联系删除,QQ:228866015