阿里云用多块云磁盘组软 RAID0 提升 IO 靠谱吗?
用多块云磁盘在虚拟机里组软RAID0的想法,看作者的测试似乎IO是有提升的。记得有人说阿里云磁盘用的是内部光纤传输,多块云磁盘组软RAID0会不会导致数据多份传输延迟变大?如果可行,的确不失为个好办法。
本文由 vps网友提供,转载请注明出处
本文链接: https://www.vpsvsvps.com/discuss/a/1676471763334074368.html
本文由 vps网友提供,转载请注明出处
本文链接: https://www.vpsvsvps.com/discuss/a/1676471763334074368.html
@xanpeng
http://instagram-engineering.tumblr.com/post/13649370142/what-powers-instagram-hundreds-of-instances
"We’ve found that Amazon’s network disk system (EBS) doesn’t support enough disk seeks per second, so having all of our working set in memory is extremely important. To get reasonable IO performance, we set up our EBS drives in a software RAID using mdadm."
@155 稍微google了下没找到你说的这篇。
另稍微瞄了眼aws官网raid0的说明:“RAID 0: When I/O performance is more importan...”.(http://docs.aws.amazon.com/AWSEC2/latest/UserGuide/raid-config.html)
我觉得是靠谱的,理论上相当于原来单盘I/O压力分给多盘。
“阿里云磁盘用的使内部光纤传输”——一般备份都是内部网络吧。
“...会不会导致数据多份传输延迟变大”——没Get到,raid0层级无备份,阿里云内部实现层级还是原来的备份数啊(比如3,当然假设他们使用的是备份机制),和raid0无关联吧,没有增加数据量。
高可用性的必须用网络储存。
据说光纤的延迟比SATA低,我没用过光纤,不作评价。
RAID0是同时向在这个阵列里面的多个硬盘发起读写请求的,因此延迟时间不会叠加。
不过延迟恐怕会取决于延迟最大的那个磁盘,这是不是叫木桶效应?