- 工信部备案号 滇ICP备05000110号-1
- 滇公安备案 滇53010302000111
- 增值电信业务经营许可证 B1.B2-20181647、滇B1.B2-20190004
- 云南互联网协会理事单位
- 安全联盟认证网站身份V标记
- 域名注册服务机构许可:滇D3-20230001
- 代理域名注册服务机构:新网数码
对于传统的数据中心来说,南北向流量可以占据到80%。但是IT基础架构进入云计算时代后,传统数据中心开始向云数据中心转型。IT应用架构方面,企业应用逐步从单体架构完成了向“Web-App-DB”架构的转型,分布式技术在谷歌公开“三驾马车”后开始盛行。从网络的视角来看,原来很多在服务器中内部消化的流量都跑到了网络上,再加上虚拟机迁移、业务备份等流量的增长,东西向流量开始取代南北向流量,在数据中心占据主导地位,比例可达70%以上。
流量模型的转变对于数据中心的网络架构提出了全新的要求。
传统的数据中心网络3-Tier的网络架构起源于园区网,传统数据中心,包括企业数据中心EDC和互联网数据中心IDC的网络将其沿用了下来。如下图所示,3-Tier架构将网络分为接入(access)、汇聚(aggregation)和核心(core)三层。
Access Layer(接入层):接入层位与网络的最底层,负责所有终端设备的接入工作,并确保各终端设备可以通过网络进行数据包的传递。
Aggregation Layer(汇聚层):汇聚层位于接入层和核心层之间。该层可以通过实现ACL等其他过滤器来提供区域的定义。
Core Layer(核心层):又被称为网络的骨干。该层的网络设备为所有的数据包包提供高速转发,通过L3路由网络将各个区域进行连接,保证各区域内部终端设备的路由可达。
传统网络架构虽然稳定,但随着技术的不断发展,应用不断的多元化以及对业务的高冗余化的需求,暴露出了一些传统网络的弊端。主要包括:
1)业务流量模型不清晰
随着网络的发展、各种新技术的产生,数据中心内部、服务器之间协同处理、计算,导致由东向西的流量逐渐增大,超过了由南向北的流量。而传统三层架构服务器间交换,都要过三层核心,多层转发,增大了网络的延迟,还浪费了核心宝贵的资源。与此同时,如果将业务拆分成多个模块,并部署在不同的区域中,由于应用的不断发展,模块的数量越来越多,模块之间的调用越来越频繁,可能一次完整的应用流程需要经历数十个模块,模块之间的频繁调用大大消耗了网络设备的资源。
2)横向扩展能力不足
传统数据中心使用STP技术,虽然上联多根链路,但都是主备关系,仅有一根链路能跑流量,无法承载数据中心日益增长的业务。尽管后续使用了有相关的Ethernet Channel、堆叠、VSS等技术,来满足链路冗余的需求,但是堆叠、Ethernet Channel不可能无限地进行扩展。
3)广播域过于庞大
随着业务的发展,计算资源被池化。为了使得计算资源可以任意分配,需要一个巨大的二层网络架构。整个数据中心网络都是多个L2广播域,这样,服务器可以在规定的区域地点创建、迁移,而不需要对IP地址或者默认网关做修改。不断地业务扩展,造就了一个巨大的二层广播域,一旦出现一点问题就造成巨大的网络问题,导致业务中断,业务的高可用性就无法保证。
4)资源无法快速上线
随着业务的不断发展,计算资源的虚拟化。当需要进行虚拟资源部署时,严格安全防护的要求下,需要进行安全设备的策略开通。从部署到正式上线使用之间的耗时会长达1小时之久。无法满足在突发情况下,快速增加计算资源。
由于安全设备以及设备上联位置的限制,无法在任意的计算资源池中随意的创建、迁移;无法合理分配资源池的各种硬件资源,造成资源的分配不均衡。一旦某资源池已达阈值,就无法继续计算资源的横向扩展。
5)网络延时过大
在使用传统网络架构时,每个业务模块都是一个烟囱结构,业务模块互相调用需要经过多个三层设备(平均需要经过6次物理设备)其中还可能包括防火墙等安全设备。受限于设备的性能、网络架构的主备方案,数据流量每经过一次设备都会增加一点延迟。虽然每一次延时都是微乎其微,但是累计次数多了,对于业务来说这个延时可能就导致用户体检较差。
在大规模云计算平台场景下,东西向流量的爆发意味着数据中心内大部分的流量都将发生在服务器之间,在3-Tier网络架构中,这类流量的处理需要经过层层的设备,导致流量的通信时延较长,而不同服务器间的通信路径很有可能是不同的,从而又导致了时延的不可预测性,这两个问题对于数据中心的一些关键应用(如大数据)是不可接受的。
其次,随着虚拟化得到普遍的应用,物理的位置变得无关紧要,跨机架的流量在统计上的分布趋于更加均匀,3-Tier网络中通常所采用的10∶1、6∶1这种大收敛比将使得跨机架流量在上联口被大量地阻塞,降低网络的通信效率。因此,传统的3-Tier网络架构并不适合用于东西向流量的传输。并且,当前100GE设备及布线成本都十分高昂,服务器采用10GE接入后,传统结构下,汇聚及核心层设备必须具备100GE的转发能力才能保证尽量低的收敛比。
解决东西向流量的问题,必须从3-Tier架构本身入手进行变革,数据中心网络开始向扁平化的、无阻塞的网络架构进行演进。针对于此,目前主流的设计是在数据中心中构建Leaf-Spine的网络架构。相比于3-Tier, Leaf-Spine实现了层次的扁平化,Leaf负责所有的接入,Spine只负责在Leaf间进行高速传输,网络中任意两个服务器都是Leaf-Spine-Leaf三跳可达的。Leaf和Spine间是Full-Mesh的,即两个Leaf间可以通过任意一个Spine进行中继,Leaf可以将不同的流量分散到不同的Spine上进行负载均衡,如果一个Spine挂掉了,那么原来经过这个Spine转发的流量可以迅速地切换到其他Spine上。Leaf和Spine均可以使用商品化交换机,如果接入端口不够用了就直接在Leaf层新接交换机,如果Leaf间的带宽不够用了就直接在Spine层新接交换机。这不仅降低了系统的构建成本,还极大地提高了网络的可扩展性。
做一个简单的图形变换就可以发现,Leaf-Spine就是对CLOS进行了折叠(相当于3-Stage CLOS),因此Leaf-Spine在结构上是无阻塞的。在所有端口速率一致的情况下,如果能够使用Leaf中一半的端口来上联Spine,那么理论上就可以得到1∶1的收敛比。不过考虑到成本问题,实际情况中能做到3∶1到2∶1之间,就可以近似地认为能够支撑无阻塞转发了。
如果3-Stage的Leaf-Spine仍然无法满足其网络在扩展性方面的需求,此时可采用5-Stage的Leaf-Spine结构,如下图所示,每个POD都是一个3-Stage的Leaf-Spine,不同的POD通过Core交换机进行互联,跨POD的流量都是Leaf-Spine-Core-Spine-Leaf五跳可达,因此Core也可以看作Super Spine。Spine与Core间做Full-Mesh的连接,如果POD不够用了就加POD,如果POD间带宽不够用了就加Core。目前,5-Stage的Leaf-Spine所能够支持的端口数,足以支持单数据中心对组网容量的需求,一般情况下3-Stage Leaf-Spine就足够用了,只有一些超大规模的数据中心才会使用到5-Stage Leaf-Spine。
售前咨询
售后咨询
备案咨询
二维码
TOP