U盘PE| w764位旗舰版下载 | U盘装win7系统 | U盘启动 |win7pe | win10下载 |加入收藏土豆PE官网U盘PE,U盘装win7系统,win7pe,U盘启动,U盘装系统,w764位旗舰版下载站!
当前位置:主页 > 帮助中心 > U盘常识 >

8块硬盘做raid5的速度(5块硬盘做raid5)

来源:http://www.tudoupe.com时间:2023-12-26

组建了一个RAID5阵列,为何速度不尽人意?

组成双通道
速度低了。你哪里没有搞对吧。 RAID5本身性能不止这么点的。8块至少是2.5倍单块的速度吧。
组建了一个RAID5阵列,为何速度不尽人意?

有8块SAS Disk 是做成raid5、【raid5+h】raid0、raid6、raid10,哪个最安全、最快

最安全与最快 本事就相互冲突!从你的要求来看建议使用RAID10,性能折中,而且读写性能均衡,容量为总容量的1/2,最多允许坏2只盘。 RAID5 最多允许坏1只盘 容量为总容量-1x单盘容量RAID6 最多允许坏2只盘 容量为总容量-2x单盘容量RAID5&RAID6如果要求写入速度,对卡本身的性能要求较高。但读取速度最快。 RAID0 不用考虑,无容错能力,坏1只数据将全部丢失。
最快的当然是0,最安全的不好说。10和5都比较安全。10速度较快但是磁盘浪费比较大,8块盘只能用到4块的容量,5可以用到7块的容量。10如果坏的盘不在一个1里面,可以保全数据,如果一个1里面坏了2块盘就不行了。 其实6最安全,允许同时坏2快盘,但是6没有实际部署意义而且几乎没有实际应用,只是技术研究用的),
有8块SAS Disk 是做成raid5、【raid5+h】raid0、raid6、raid10,哪个最安全、最快

RAID 5 速度是怎么计算的

你说的有效使用率是组RAID5以后的容量吧~假设硬盘容量为M,单硬盘速度为T,硬盘个数为N。RAID5采用数据写入的方式比较复杂,例如用3块硬盘组RAID5,分别是abc,数据写入的时候在a和b写入数据,在c中放入校验码。第2次写数据的时候校验码会存储在a或b上。这样来保证当一块硬盘坏的时候其他盘可以有足够完整的数据+校验来恢复坏硬盘的数据。容量为>(N-1)*M,读速度为N*T,写速度速度不会提高一倍的。在写入过程中,RAID5会进行校验耗费时间。校验的速度取决于RAID卡的芯片型号及缓存。比如dell服务器H310卡,支持raid5,但是没有缓存。所以读写速度提升相当有限,和单块盘的写入速度差不多。读取速度就快多了。 你用3个速度是100M/s 的1T硬盘组 RAID 5,最大也达不到200M/s。如果raid卡垃圾,速度也就100M出头。
RAID 5 速度是怎么计算的

RAID5硬盘数量越多是不是速度越快?

是的,磁盘阵列 raid0模式下,阵列包含的硬盘越多,速度越快。 raid模式的磁盘阵列,需要至少两块硬盘。数据在磁盘阵列控制器的控制下,会平均分配,同时向阵列内的所有硬盘同时写入,所以随着阵列包含的硬盘数量增加,其读写速度相应也增加。但是需要注意的是,raid0是极不安全的阵列方式。随着阵列包含的硬盘数量,硬盘损坏的几率也相应增加,而一旦任一硬盘损坏,所有数据都将丢失,所以,单纯增加硬盘数量来换取速度的方式并不可取。
RAID5 组里面当有8-10块盘的时候,它的性能是最好的。最好是加一块热备盘,要不然当RAID 5组里面其中一块硬盘坏掉后,性能直接下降40%
RAID5硬盘数量越多是不是速度越快?

八盘位NAS上几个硬盘能达到万兆

1、主板:超微X10DRL-i 2、CPU:E5 2650L v3*2 2、内存:4*8g DDR4 REG ECC(SK Hynix HMA41GR7MFR8N-TF) 4*16g DDR4 REG ECC(Samsung M393A2G40DB0-CPB) 3、阵列卡:LSI 9208-8i IT模式(共有两块,只使用了一块) 4、硬盘:8*日立HUS72302CLAR2000 5、电源:长城巨龙EPS1000DA 6、机箱:TT W200(对硬盘散热使用了7把12cm风扇保证散热) 软件平台: 系统:Ubuntu Server 20.04.1 LTS zfs阵列使用OpenZFS on linux v2.0.4 其余raid阵列使用mdadm创建 测试脚本: 本次测试均使用script命令记录测试结果 创建mdadm阵列使用如下脚本: mdadm --create --verbose /dev/md1 -level=$level --raid-devices=$i --chunk=$chunk /dev/sd$j其中$level与$chunk对应raid类型和chunk大小(条带大小),$i和$j则因为有部分测试只使用4块硬盘测试,使用md1因为操作系统安装在由两块ssd(sda、sdb)以raid1组成的md0阵列上 创建文件系统,使用ext4文件系统: mkdir -p /pool_0yes | mkfs.ext4 -F /dev/md1yes | mount -t ext4 /dev/md1 /pool_0清理阵列: mdadm --stop /dev/md1mdadm --misc --zero-superblock /dev/sd$j创建zfs阵列使用如下脚本: zpool create pool_0 $raid-level /dev/sdc /dev/sdd /dev/sde /dev/sdf /dev/sdg /dev/sdh /dev/sdi /dev/sdj或zpool create pool_0 $raid-level /dev/sdc /dev/sdd /dev/sde /dev/sdf $raid-level /dev/sdg /dev/sdh /dev/sdi /dev/sdj第二种方式用于组建如raidz0等跨越阵列时使用 因为zfs自动创建挂载点,故测试时直接使用默认挂载点测试 清理阵列: zpool destroy pool_0sgdisk --zap-all /dev/sd$j测速命令: dd if=/dev/zero of=/pool_0 bs=$bs count=10000$bs为块大小,分别测试了512,4k,8和1m下的速度 命令重复5次,去掉最大值和最小值计算平均值作为最终结果 另外还进行了每块硬盘单独测速,同样使用ext4文件系统 测试结果 各硬盘测试结果虽然这批硬盘都是二手贴标盘,但是测试速度还是可以的,除了作为二手盘的一些毛病外(之后会提到)。 接下来是阵列速度的测试,以下测试中,以8块硬盘或4块硬盘使用mdadm创建了raid0,5,6,10和使用zfs创建raid z1,z2,z3,2*z1,strip(等于raid0),mirror+strip(等于raid10),分别测试了mdadm设置不同chunk大小对速度的影响(不带chunk的则为zfs阵列),以及使用不同bs大小测试阵列在不同块大小下速度表现。 阵列测速 block size = 512这次测试设置的最小块大小为512,此时速度受影响最大的是使用zfs创建的各个阵列,全部只有60m/s出头的速度,而最高速度梯队均被8盘raid0占据,但速度只有140-150,与单盘相比只有不到一倍的提升,迷惑的是chunk大小对应的速度顺序十分混乱,几乎无法总结出规律。 阵列测速 block size = 4k4k速度领先的仍然是raid0,zfs的各个阵列排在中间,最低的则变成了4盘组的raid10,速度甚至低于单盘速度,可谓惨不忍睹,而我常用的raid5速度在350左右,只有不到2倍提升。 阵列测速 block size = 8k8k速度比较有意思,raid0速度仍然占据前列,而zfs的速度明显提升,尤其是raidz1*2和使用zfs创建的raid10,这两个都是我曾经选择过的方案(raid10使用了16盘) 阵列测速 block size = 1M最终来到1M块大小的测试,这次变化比较大,速度最高的是8盘使用zfs创建的raid0,速度达到了1100+,而实际上,我测试12盘速度时,这种方式创建的阵列速度可以到达1300+,而其余成绩几乎没有什么出乎预料的地方,只有上面提到的zfs下raidz1*2和raid10的排名继续上升 总结 说一下我的感觉,在做这次测试之前我也预料到测试结果就是如此惨淡,因为平时我使用情况便是桌面机和服务器之间使用万兆网卡相连,通过smb共享文件,不过文件性能实在不是很满意,从桌面机的ssd拷贝文件到服务器上速度只有400出头,而且遇到大量零碎文件时响应相当慢,一直以来我便考虑是smb的问题还是磁盘性能就是这样,这个测试说出了答案。 测试中,速度最快的无疑是raid0,只不过应该不会有人选择,其余比较有价值的选择分别是raid5和2*raid z1,这两个选项都有不错的性能,也分别有1盘和2盘的冗余,当初我选择使用2t磁盘,便是考虑到在损坏1块硬盘时,2t硬盘重组阵列还是相对安全的,基本上一天以内阵列就恢复同步,当然我更偏向使用zfs,尤其是我最开始选择这套配置便是奔着freenas去的,而且raid z2和raid z3虽然性能不足,但是安全性绝对是更高的,只不过8盘位下,这两个选择明显没有优势。 对于条带大小,实在是认识有限,之前一直使用默认参数,而网络上没有找到有用的资料,只能说是瞎子过河,用我自己的理解去测试,结果是无功而返。 后记 这个测试差不多在一个多月前做的,现在才发纯粹因为懒癌犯了,第一次在b站发文章,文案啰嗦得把自己也难受到了,还是感谢能看到这里,之后也许还会总结一些我之前的经验,我会多多努力。发文的时候我的配置已经做了一个大的调整,也乘着这次矿潮,把之前的设备卖了,还得了一笔不小的差价,而目前硬件涨价实在厉害,还好我在涨价前购入了一块12t硬盘,跟之前用来冷备的另一块12t硬盘组一起,现在数据暂且存在这两块硬盘上,对nas的进一步改造只能留在将来了。 说到之前设备的缺点,只能说现实总是事与愿违,一开始我选择2t sas做阵列,主要是几方面,一是价格,二是容量,三是速度。最开始我的群晖nas上选择了两块6t和两块3t硬盘分别组raid1,光是硬盘价格就接近四千,而nas价格是三千出头。而换成自组的nas和二手硬盘,价格只要一半多点,还能拥有8盘位和万兆网络,价格便是最大的优势。而2t硬盘前面提到了,我认为这个容量还是比较适合阵列掉盘后重建的,成功率和速度都能预测得到,而有了盘位优势,容量便不是问题。至于速度,相比4盘位,8盘位优势理所当然是更大。 而实际上,二手硬盘由于质量参差不齐,有一些盘用了很久依然坚挺,而有一些在使用两三个月内就会出现问题,导致其成了消耗品,而为了安全性,我把盘位一步步提高,曾试过12盘和16盘,做了更高级别的raid如raidz3和2*raidz2,而代价是性能不升反降,而且一个大问题暴露出来了,这些硬盘本来功耗就不小,而我使用的环境没有机房那样的稳定温度,导致硬盘发热严重,而且电费也猛然飙升,最终只能下决定放弃,也意识到这个方案在我目前情况下不可行。 在测试结束后,我意识到这次测试并不太严谨,首先我只测试了写入速度没有测试读取速度,原因是没有找到合适的测试方法,在某些测试中,会因为缓存原因导致测出的速度发生明显错误,而我测试的数据也没有与其他人对比过,实际这个速度是否合格纯粹是我个人的主观判断。并且,在创建文件系统时,我并没有注意到有block的参数,而在后来发现这个参数也许会影响到结果。最后一个大问题是,在测试前后我都对硬盘进行过坏道测试,结果发现sdh盘,也就是那块型号不同的,实际上是同型号的HP贴标盘,在测试后出现了三个连续坏道,而由于第二次坏道测试是在我转让硬盘前做最后测试时发现的,不确定坏道是否在此过程中出现,所以这次的测试,只能以极其不严谨的标志定义,在将来我有机会再次测试时,定要以严谨为首要,以弥补这次的遗憾。
八盘位NAS上几个硬盘能达到万兆

Copyright © 2012-2014 Www.tudoupe.Com. 土豆启动 版权所有 意见建议:tdsky@tudoupe.com

土豆系统,土豆PE,win7系统下载,win7 64位旗舰版下载,u盘启动,u盘装系统,win10下载,win10正式版下载,win10 RTM正式版下载,win8下载,电脑蓝屏,IE11修复,网络受限,4K对齐,双系统,隐藏分区,系统安装不了,U盘装系统,笔记本装系统,台式机装系统,diskgenius运用,GHSOT装系统,U盘修复,U盘技巧,U盘速度,U盘不能格式化,U盘复制发生错误,U盘加密,U盘选购,开机黑屏,蓝屏,进不了系统,上不了网,打不开程序,点击无反应,系统设置,PE个性化,PE添加网络,PE维护系统

点击这里给我发消息