现在行业正处于40 GbE网络升级过程中。到目前为止,早期应用主要集中在云计算和大型服务提供商、企业、教育和政府数据中心,但是将来肯定会有广泛的应用。正如以前一样,每一个以太网标准都是由于IT技术发展的需求推动的,在一些小型数据中心和网络主干网中,持续的改进一定需要40 GbE的支持。
服务器CPU处理速度的提升,加上支持多处理器核心的芯片出现,都会不断地提升服务器的计算能力。此外,虚拟化加大了服务器实际可用功能的碎片化。这些因素可以提升各个服务器的网络流量传输。结果,最新安装的服务器已经配置了10 GbE接口,而不是现在服务器常见的1 GbE接口。
现在已经有40 GbE服务器和工作站接口,但是它们还没有广泛应用。目前的应用仅限于研究机构或其他一些处理超大数据集的机构。
网络流量和应用架构产生的附带效应
不断膨胀的服务器流量会给整个网络产生附带效应。安装带有10 GbE接口的服务器意味着接入层交换机的接口也必须升级到10 GbE.然后,连接核心网络及其它聚合设备的上行链路还必须升级到40 GbE,有一些甚至会升级到100 GbE网络。
此外,应用结构变化和虚拟化也要求增加数据中心内各个机架之间的网络容量。过去,一个服务器通常只能处理一个应用程序的执行。在这种情况下,最终用户和应用数据流之间的流量将通过网络主干网,进入数据中心核心网络,然后再到达应用程序所在的服务器。机架之间的流量需求并不大。
现在,应用程序通常包含多个组件。每一个组件可以运行在数据中心的任意一台服务器上,所以组件之间的流量通常会机架之间传输,从而需要提高数据中心内部的带宽。当网络升级到支持这种流量之后,就需要使用40 GbE链路支持当前和未来的需求。
虚拟化和大数据增加了网络流量流的压力
同时,虚拟化也会产生额外的负载。虚拟机(VM)可以从一台过载服务器快速切换到另一台负载较小的服务器。目标服务器可能位于不同的机架上,所以移动虚拟机需要将整个镜像传输通过聚合层,甚至有可能通过核心网络。假设在开始移动之前,虚拟机中运行的应用组件位于同一个机架,在开始传输之后,它们可能会转移到不同的机架上。
大数据也会增加压力。例如,Hadoop等技术会将处理负载分割到多个虚拟机上,其中每一个虚拟机都有一部分数据。在每一个周期完成之后,产生的数据会通过网络传输到其他位置进行处理和优化。数据总量、数据对于网络的负载及通过网络重复移动虚拟机,都需要给网络增加更高容量的链路,这个过程就需要将网络升级到40 GbE.
如果想要更多证据,那么可以考虑一下通过802.11n、802.11ac或4G网络连接的无数智能手机和平板电脑。这些设备可能产生超高的数据容量。所有数据都必须通过主干网而进入数据中心。因此,大型园区、企业和政府网络都开始升级到40 GbE,甚至100 GbE网络。