|
打破I/O瓶颈 PCIe SSD优化虚拟环境按照摩尔定律,处理器性能每18个月便提升一倍,总线规格却是每3、4年或更长时间才会更新一次,硬盘等传统存储设备的速度提升更是缓慢…… 服务器虚拟化集中了由多台实体服务器实现的运算操作,提高硬件资源的使用效率,强化资源分配管理的弹性。但同时也大幅增加了虚拟化平台的实体服务器I/O负担。实体主机承担1个任务需要耗用一定的处理器与I/O性能,当通过虚拟化使其虚拟为2台虚拟主机(VM)并分别承担2个任务时,如果想维持原有的服务等级,需要耗用的处理器与I/O性能也会随之翻倍。 但负责I/O操作的传输总线与存储设备性能增长速度,却远远落后于处理器性能的增长,按照摩尔定律,处理器性能每18个月便提升一倍,总线规格却是每3、4年或更长时间才会更新一次,硬盘等传统存储设备的速度提升更是缓慢,以致I/O性能成了虚拟化应用上的一个瓶颈,让用户对于能否将I/O负担重的应用,转移到虚拟平台上充满疑虑。 依应用型态的不同,I/O瓶颈可分为存取延迟与带宽不足等两个面向: 存取延迟 造成存取延迟的最主要原因,是存储设备的存取响应速度不足,或者说是响应时间(response time)过长;另外存储设备与前端客户端间传输通道经过的环节数目,以及传输信道的速度,也会影响到存取响应的速度。 带宽不足 影响传输带宽的因素,主要是传输信道与存储设备可承担的数据传输吞吐量(Throughput)上限。 不同类型的应用,由于数据存取型态不同,对于I/O性能的要求也有不同。如实时的金融交易或大型订位/订票系统等应用,每个I/O的数据量都不大,但每秒可能处理多达数万甚至数十万个I/O,需要尽可能高的每秒I/O处理性能,因此对存取延迟十分敏感。 而像影音多媒体数据处理,或类似Google MapReduce、Hadoop之类针对大数据量的平行架构处理应用,这类应用并不需要很高的存取响应速度,但需要应付非常大的数据吞吐量,主要的I/O负载便落在数据传输带宽上。 打破I/O瓶颈的方式 显然的,要改善服务器的I/O性能,便得从减少存取延迟、扩大传输带宽这两方面着手。落实到具体的产品层面,就是存储设备与传输信道这两个环节。 从减少延迟的需求来看,存储设备本身的速度越快,响应前端应用程序存取要求的反应时间便越快,延迟越少;同样的,若处理器与存储设备间的传输信道速度越快、传输信道经过的环节越少,则整体的存取反应时间也越快,延迟越少。所以需要的是高速、且尽可能放在“更靠近处理器”位置的存储设备。 从提高传输通道带宽的观点来看,由于单一存储设备或传输信道所能提供的传输吞吐量性能,有其上限,实际上往往需要汇集多个存储设备或传输信道,由此得到更高的传输性能,但成本也会因此而增加。所以若存储设备与传输信道本身的传输吞吐量规格越高,便能以较少的资源,来满足所需的传输性能。 最佳选择:PCIe+Flash内存 以需求出发,安装在前端服务器内、采用PCIe接口的NAND Flash内存设备,是当前改善虚拟环境服务器I/O性能最有力的选择。 责编:赵龙 微信扫一扫实时了解行业动态 微信扫一扫分享本文给好友 著作权声明:畅享网文章著作权分属畅享网、网友和合作伙伴,部分非原创文章作者信息可能有所缺失,如需补充或修改请与我们联系,工作人员会在1个工作日内配合处理。 |
最新专题 推荐圈子 |
|