导航:首页 > 解决方法 > 跨数据中心互联解决方法

跨数据中心互联解决方法

发布时间:2023-01-14 14:52:51

1. 谁能简单概括的解释一下华三的EVI技术

1 什么是EVI?
EVI(Ethernet Virtual Interconnection,以太网虚拟化互联)是H3C(华三通信)的一项专有技术,它是一种先进的“MAC in IP”技术,基于IP核心网实现数据中心间的二层互联。

2 为什么需要EVI?
传统的二层互联技术只是简单的把二层范围从一个数据中心扩展到两个数据中心,因此二层广播域也随之扩展到两个数据中心,无法实现故障隔离。为了弥补上述的不足,数据中心互联解决方案EVI(以太网虚拟互联)应运而生。

3 EVI如何实现数据中心间的安全隔离?
EVI技术在实现数据中心之间二层互联的基础上,也满足二层互联的基本要求。通过ARP代答功能、未知目的报文抑制功能、协议报文抑制等功能减少数据中心间的无用报文,达到数据中心之间的安全隔离。

4 如何部署EVI?
EVI解决方案简单,部署成本低,只需要在站点边缘部署一个或多个支持EVI功能的设备,EVI方案只是在站点的边缘设备上维护路由和转发信息,无需改变站点内部和IP核心网络的路由和转发信息。另外EVI具有传输链路无关,可以在多种链路上可运行(裸光纤、IP、MPLS),只要链路间三层报文可达即可。

5 EVI 与Overlay
IETF在Overlay技术领域提出三大技术方案。分别是VXLAN、NVGRE和STT(有关三者的具体介绍详见H3C官方技术刊物《IP领航》第29期“基于多租户的云计算网络”一文。www.h3c.com.cn)。其中总体比较,VXLAN利用了现有通用的UDP传输,成熟度极高,华三支持的也是VXLAN,它常用在数据中心内部。

EVI 是用在数据中心间的Overlay技术,EVI 既支持以VLAN为单位,也支持以VXLAN 为单位在数据中心之间实现二层互联,是目前最灵活最可靠的云间二层互联解决方案。

6 与EVI类似的方案有哪些
与此类似的技术还有Cisco的OTV,华为的EVN,但是华为的EVN应用不多。EVI与OTV支持的功能相差不多,但在支持的实例数、站点数、单播MAC数、扩展VLAN数目上EVI更有优势。

2. 实现数据中心间互通的纽带——DCI技术

现在的数据中心早已不是一座孤立的机房,而是一个建筑群。一个数据中心可以包含很多个分支数据中心,可以说是一个数据中心群,这些分支数据中心所处的位置不同,却可以通过网络互联起来,共同完成相应的业务部署。像阿里、腾讯、网络等这些大型互联网公司,为了提升客户访问体验,会在不同省会都会建立自己的数据中心分支机构,以便满足不同地区的客户访问需求,数据中心早已不再局限于一座或几座机房。

这些数据中心要协同运转,就需要相互之间交互信息,这就有了互连需求,产生了DCI网络,即Data Center Inter-connect,这里囊括了物理网络层面和逻辑网络层面的技术。要实现不同地区的数据中心互联,有多种方式:可以直接Internet互联,可以使用专线互连,也可以使用光纤直连,还可以增加一些加密手段,防止传输的数据泄露,这里衍生出了很多新的技术,本文就来讲述一下DCI相关的技术,以便大家对DCI有所了解。

实现数据中心间互通的纽带——DCI技术

DCI互联通常有三种方式。一种是网络三层互联,也称为数据中心前端网络互联,所谓“前端网络”是指数据中心面向企业园区网或企业广域网的出口,不同数据中心的前端网络通过IP技术实现互联,园区或分支的客户端通过前端网络访问各数据中心,当主用数据中心发生灾难时,前端网络将实现快速收敛,客户端通过访问备用的数据中心以保障业务连续性;一种是网络二层互联,也称为数据中心服务器网络互联,在不同的数据中心服务器网络接入层,构建一个数据中心间大二层网络,以满足服务器集群或虚拟机动态迁移等场景对二层网络接入的需求;最后一种是 SAN互联,也称为后端存储网络互联,借助DWDH、SDH等传输技术实现数据中心之间磁盘阵列的数据复制。在服务器集群技术普及之前,这三种互联方式都有自己的存在空间,但集群应用普及之后,前两种网络无法适从了。服务器集群是借助集群软件将网络上的多台服务器关联在一起,提供一致的服务,对外表现为一台逻辑服务器。集群软件需要各服务器间采用二层网络互联,才能实现无感知的虚拟机切换。如果采用三层互联,将无法实现虚拟迁移,如果采用二层打通,安全性成为最大隐患,数十个数据中心形成一个二层网络,一个广播风暴就会将所有数据中心搞瘫,所以两种方式都无法适应集群部署的应用,于是乎开始出现了很多DCI专用技术。

MPLS技术

基于MPLS技术的实现方案,要求数据中心之间互联网络是已部署为MPLS技术的核心网,这样可以直接通过VLL和VPLS完成数据中心直接的二层互联。MPLS包括二层VPN技术和三层VPN技术,VPLS协议就是二层VPN技术,标准化程度很高,在很多行业都有部署应用。不过,VPLS技术比较复杂,部署及运维的管理难度较大,各种接入方式和类型都比较多,很多时候VPLS网络建好以后,很多人都不敢去动网络配置,容易出问题。在此我向大家推荐一个大数据技术交流圈: 658558542  突破技术瓶颈,提升思维能力 。VPLS在国外的网络中常见一些,而在国内VPLS的部署并不多见,更多的是三层MPLS,不过要支持服务器集群应用,就不能靠MPLS了,只能是VPLS。VPLS这种技术,其优点是基于MPLS技术可以较为简单地实现城域/广域网络的部署,缺点是需要核心网/城域网支持MPLS技术,技术复杂不便于维护。

IP隧道技术

IP隧道技术是基于IP技术,在任意IP网络开启相应二层隧道来实现数据中心互联。这个方案摆脱了数据中心之间互联链路的类型限制,是目前的发展方向。IP隧道技术核心思想是通过“MAC in IP”的方式,通过隧道技术穿越三层网络实现二层网络的互通。对MAC地址的学习通过控制平面借鉴IS-IS协议来实现,隧道封装采用类似GRE的动态封装方式,最后可以支持双归属的高可用部署方式。比如思科的OTV,H3C的EVI都是这类技术,这类技术基于IP核心网络的L2VPN,可以完成站点的边缘设备上维护路由和转发信息,而无需改变站点内部和核心网络。即在IP网络上建立隧道,传递经过标签封装后的二层数据报文,从而实现跨数据中心的二层互通。数据中心二层互联方案很大程度上会受限于用户现有的网络类型,这一情况限制了数据中心对二层互联方案的应用推广。IP隧道技术是一种新的组网方案,能够无视互联网络的类型差异而统一组网,实现多个数据中心之间的异构网络二层互联。

VXLAN-DCI隧道技术

VXLAN是基于IP网络、采用“MAC in UDP”封装形式的二层VPN技术,从事网络工作的对此都应该不陌生。现在如火如荼新建的数据中心,网络部分基本都采用的VXLAN技术,这是未来数据中心网络最为重要的技术之一,是实现网络虚拟化的前提。VXLAN隧道只能用于数据中心内部,实现数据中心内部虚拟机的互联。VXLAN-DCI隧道则可用来实现数据中心之间的互联,是一种新型DCI技术,这是部署在VXLAN网络中的重要技术。

从这三种技术不难看出有一个共同特点,都用到了封装,即在原始报文上再增加一层二层报文头,从而实现报文的大二层转发,实现虚拟机可以在所有数据中心之间自由迁移的功能。这些技术充分保留了原有网络的架构,在原有网络上再建设一套虚拟的大二层网络,将所有数据中心二层打通,虽然封装技术增加了报文封装,浪费掉一些网络带宽,但却解决了数据中心互联的大问题。现在SDN技术火热,SDN也可以在数据中心互联中起到很大作用。通过部署SDN,可做到弹性计费,降低运维成本,简化操作。未来的数据中心互联中必将看到SDN的身影。

感谢您的观看,如有不足之处,欢迎批评指正。

在此我向大家推荐一个大数据开发交流圈:

658558542    ( ☛点击即可加入群聊 )

里面整理了一大份学习资料,全都是些干货,包括大数据技术入门,大数据离线处理、数据实时处理、Hadoop 、Spark、Flink、推荐系统算法以及源码解析等,送给每一位大数据小伙伴,让自学更轻松。这里不止是小白聚集地,还有大牛在线解答!欢迎初学和进阶中的小伙伴一起进群学习交流,共同进步!

最后祝福所有遇到瓶颈的大数据程序员们突破自己,祝福大家在往后的工作与面试中一切顺利。

3. 联通云业务是什么

云联网产品是基于联通产业互联网以 SDN 技术为企业客户、云服务提供商提供跨数据中心或跨云之间的连接和组网方案,解决了客户在不同地域、不同网络环境下多个数据中心或云之间的通信问题。

4. 数据中心网络之百家讲坛

最近因为写论文的关系,泡知网、泡万方,发现了很多学术界对数据中心网络一些构想,发现里面不乏天才的想法,但日常我们沉迷在各个设备厂商调制好的羹汤中无法自拔,管中窥豹不见全局,还一直呼喊着“真香”,对于网工来说沉溺于自己的一方小小天地不如跳出来看看外界有哪些新的技术和思想,莫听穿林打叶声,何妨吟啸且徐行

当前新的数据中心网络拓扑主要分为两类

1、以交换机为核心,网络连接和路由功能由交换机完成,各个设备厂商的“羹汤”全属于这个领域

2、以服务器为核心,主要互联和路由功能放在服务器上,交换机只提供简单纵横制交换功能

第一类方案中包含了能引发我回忆阴影的Fat-Tree,和VL2、Helios、c-Through、OSA等等,这些方案要么采用更多数量交换机,要么融合光交换机进行网络互联,对交换机软件和硬件要求比较高,第二类主要有DCell、Bcube、FiConn、CamCube、MDCube等等,主要推动者是微软,这类方案中服务器一版会通过多网卡接入网络,为了支持各种流量模型,会对服务器进行硬件和软件的升级。

除了这些网络拓扑的变化外,其实对数据中心网络传输协议TCP/IP、网络虚拟化、网络节能机制、DCI网络互联都有很多创新的技术和概念涌现出来。

FatTree  胖树,2008年由UCSD大学发表的论文,同时也是5年前工作中接触的第一种交换机为中心的网络拓扑,当时没有太理解,跟客户为这事掐的火星四溅,再来一次可能结论会有所改变,同时也是这篇论文引发了学术界对数据中心内部网络拓扑设计的广泛而深刻的讨论,他提出了一套组网设计原则来达成几个目的

1、全网采用低端商用交换机来组网、其实就是采用1U的接入交换机,取消框式设备

2、全网无阻塞

3、成本节省,纸面测算的话FatTree 可以降为常规模式组网成本的1/4或1/5

物理拓扑(按照4个pod设计)

FatTree 的设计原则如下

整个网络包含K个POD,每个POD有K/2个Edge和K/2个Agg 交换机,他们各有K的接口,Edge使用K/2个端口下联服务器,Agg适用K/2个端口上联CORE交换机

Edge使用K/2个端口连接服务器,每个服务器占用一个交换端口

CORE层由K/2*K/2共计KK/4个K个端口交换机组成,分为K/2组,每组由K/2ge,第一组K/2台CORE交换机连接各个POD中Agg交换层一号交换机,第二组K/2的CORE交换机连接各POD中Agg的二号交换机,依次类推

K个POD,每个POD有K/2个Edge交换机,每个Edge有K/2端口,服务器总数为K*K/2*K/2=KKK/4

K取值4的话,服务器总数为16台

常规K取值48的话,服务器为27648台

FatTree的路由设计更加有意思,论文中叫两阶段路由算法,首先要说明的是如果使用论文中的算法是需要对交换机硬软件进行修改的,这种两阶段路由算法和交换设备及服务器的IP地址强相关,首先就是IP地址的编制,这里依然按照K=4来设计,规则如下

1、POD中交换机IP为10.pod.switch.1,pod对应POD编号,switch为交换机所在POD编号(Edge从0开始由左至右到k/2-1,Agg从k/2至k-1)

2、CORE交换机IP为10.k.j.i ,k为POD数量,j为交换机在Core层所属组编号,i为交换机在该组中序号

3、服务器IP为10.pod.switch.ID,ID为服务器所在Edge交换机序号,交换机已经占用.1,所以从2开始由左至右到k/2+1

设计完成后交换机和服务器的IP地址会如下分配

对于Edge交换机(以10.2.0.1为例)第一阶段匹配10.2.0.2和10.2.0.3的32位地址,匹配则转发,没有匹配(既匹配0.0.0.0/0)则根据目的地址后8位,也就是ID号,选择对应到Agg的链路,如目标地址为x.x.x.2则选择到10.2.2.1的链路,目标地址为x.x.x.3则选择到10.2.3.1的链路

对于Agg交换机(以10.2.2.1为例)第一阶段匹配本POD中网段10.2.0.0/24和10.2.1.0/24,匹配成功直接转发对应Edge,没有匹配(既匹配0.0.0.0/0)则根据目的地址后8位,也就是ID号确定对应到Core的链路,如目标地址为x.x.x.2则选择到10.4.1.1的链路,目标地址为x.x.x.3则选择到10.4.1.2的链路

对于Core交换机,只有一个阶段匹配,只要根据可能的POD网段进行即可,这里是10.0.0.0/16~10.3.0.0/16对应0、1、2、3四个口进行转发

容错方面论文提到了BFD来防止链路和节点故障,同时还有流量分类和调度的策略,这里就不展开了,因为这种两阶段路由算法要对交换机硬件进行修改,适应对IP后8位ID进行匹配,现实中没有看到实际案例,但是我们可以设想一下这种简单的转发规则再加上固定端口的低端交换机,对于转发效率以及成本的压缩将是极为可观的。尤其这种IP地址规则的设计配合路由转发,思路简直清奇。但是仔细想想,这种按照特定规则的IP编制,把每个二层限制在同一个Edge交换机下,注定了虚拟机是没有办法跨Edge来迁移的,只从这点上来看注定它只能存在于论文之中,但是顺着这个思路开个脑洞,还有什么能够编制呢?就是MAC地址,如果再配上集中式控制那就更好了,于是就有了一种新的一种路由方式PortLand,后续我们单独说。

如此看来FatTree 是典型的Scale-out模式,但是由于一般交换机端口通常为48口,如果继续增加端口数量,会导致成本的非线性增加,底层Edge交换机故障时,难以保障服务质量,还有这种拓扑在大数据的maprece模型中无法支持one-to-all和all-to-all模式。

把脑洞开的稍微小一些,我们能否用通用商业交换机+通用路由来做出来一种FatTree变种拓扑,来达到成本节省的目的呢,答案一定是确切的,目前能看到阿里已经使用固定48口交换机搭建自己的变种FatTree拓扑了。

以交换机为中心的网络拓扑如VL2、Helios不再多说,目前看到最好的就是我们熟知的spine-leaf结构,它没有设计成1:1收敛比,而且如果使用super层的clos架构,也可以支撑几万台或者百万台的服务器规模,但是FaTtree依靠网络拓扑取消掉了框式核心交换机,在一定规模的数据中心对于压低成本是非常有效的

聊完交换机为核心的拓扑设计后,再来看看服务器为核心的拓扑,同样这些DCell、Bcube、FiConn、CamCube、MDCube等,不会全讲,会拿DCell来举例子,因为它也是2008年由微软亚洲研究院主导,几乎和FatTree同时提出,开创了一个全新的思路,随后的年份里直到今天一直有各种改进版本的拓扑出现

这种服务器为核心的拓扑,主导思想是在服务器上增加网卡,服务器上要有路由转发逻辑来中转流量数据包,并且采用递推方式进行组网。

DCell的基本单元是DCell0,DCell0中服务器互联由一台T个端口的mini交换机完成,跨DCell的流量要通过服务器网卡互联进行绕转。通过一定数量的Dcell0组成一个DCell1,按照一定约束条件进行递推,组成DCell2以及DCellk

上图例中是一个DCell1的拓扑,包含5个Dcell0,每台服务器2个端口,除连接自己区域的mini交换机外,另一个端口会依次连接其他DCell0中的服务器,来组成全互联的结构,最终有20台服务器组成DCell1,所有服务器按照(m,n)坐标进行唯一标识,m相同的时候直接通过moni交换机交互,当m不同时经由mini交换机中继到互联服务器,例子中红色线为4.0服务器访问1.3服务器的访问路径。

DCell组网规则及递归约束条件如下:

DCellk中包含DCellk-1的数量为GK

DCellk中包含服务器为Tk个,每台服务器k+1块网卡,则有

GK=Tk-1+1

TK=Gk-1 ✕ Tk-1

设DCell0中有4台服务器

DCell1 中有5个DCell0 (G1=5)

Tk1=20台服务器(T1=20)

DCell2 中有21个DCell1 (G2=21)

Tk2=420台服务器(T2=420)

DCell3 中有421个DCell2 (G3=421)

Tk3=176820台服务器(T3=176820)



Tk6=3260000台服务器

经过测算DCell3中每台服务器的网卡数量为4,就能组建出包含17万台服务器的数据中心,同样DCell的缺点和优点一样耀眼,这种递归后指数增长的网卡需求量,在每台服务器上可能并不多,但是全量计算的话就太过于惊人了,虽然对比FatTree又再一次降低交换机的采购成本,但是天量的网卡可以想象对于运维的压力,还有关键的问题时高层次DCell间通信占用低层次DCell网卡带宽必然导致低层次DCell经常拥塞。最后还有一个实施的问题,天量的不同位置网卡布线对于施工的准确度以及未知的长度都是一个巨大的挑战。

DCell提出后,随后针对网卡数量、带宽抢占等一系列问题演化出来一批新的网络拓扑,思路无外乎两个方向,一个是增加交换机数量减少单服务网卡数量,趋同于spine-leaf体系,但是它一直保持了服务器多网卡的思路。另一种是极端一些,干脆消灭所有交换机,但是固定单服务器网卡数量,按照矩阵形式组建纯服务器互联结构,感兴趣的同学可以继续探索。

数据中心的路由框架涵盖范围和领域非常多,很多论文都选择其中的一个点进行讨论,比如源地址路由、流量调度、收敛、组播等等,不计划每个展开,也没有太大意义。但是针对之前FatTree的两阶段路由有一个更新的路由框架设计PortLand,它解决了两段路由中虚拟机无法迁移的问题,它的关键技术有以下几点

1、对于FatTree这种高度规范化的拓扑,PortLand设计为采用层次化MAC编址来支持大二层,这种路由框架中,除了虚拟机/物理机实际的MAC外(AMAC),还都拥有一个PortLand规范的伪MAC(PMAC),网络中的转发机制和PMAC强相关,PMAC的编址规则为

pod.position.port.vmid

pod (2字节) 代表虚拟机/服务器所在POD号,position(1字节)虚拟机/服务器所在Edge交换机在POD中编号,port(1字节)虚拟机/服务器连接Edge交换机端口的本地编号,vmid(2字节)服务器在Edge下挂以太网交换机编号,如果只有一台物理机vmid只能为1

2、虚拟机/服务器的编址搞定后,Edge、Aggregate、Core的编址呢,于是PortLand设计了一套拓扑发现机制LDP(location discovery protocol),要求交换机在各个端口上发送LDP报文LDM(location

discovery message)识别自己所处位置,LDM消息包含switch_id(交换机自身mac,与PMAC无关)pod(交换机所属pod号)pos(交换机在pod中的编号)level(Edge为0、Agg为1、Core为2)dir(上联为1,下联为-1),最开始的时候Edge角色会发现连接服务器的端口是没有LDM的,它就知道自己是Edge,Agg和Core角色依次收到LDM后会计算并确定出自己的leve和dir等信息。

3、设计一个fabric manager的集中PortLand控制器,它负责回答Edge交换机pod号和ARP解析,当Edge交换机学习到一个AMAC时,会计算一个PMAC,并把IP/AMAC/PMAC对应关系发送给fabric manager,后续有虚拟机/服务器请求此IP的ARP时,会回复PMAC地址给它,并使用这个PMAC进行通信。

4、由于PMAC的编址和pod、pos、level等信息关联,而所有交换机在LDM的交互过程中知晓了全网的交换机pod、pos、level、dir等信息,当数据包在网络中传播的时候,途径交换机根据PMAC进行解析可得到pod、pos这些信息,根据这些信息即可进行数据包的转发,数据包到达Edge后,Edge交换机会把PMAC改写为AMAC,因为它是知道其对应关系的。当虚拟机迁移后,由fabric manager来进行AMAC和PMAC对应更新和通知Edge交换机即可,论文中依靠虚拟机的免费ARP来触发,这点在实际情况中执行的效率要打一个问号。

不可否认,PortLand的一些设计思路非常巧妙,这种MAC地址重写非常有特色。规则设计中把更多的含义赋给PMAC,并且通过LDP机制设计为全网根据PMAC即可进行转发,再加上集中的控制平面fabric manager,已经及其类似我们熟悉的SDN。但是它对于转发芯片的要求可以看出要求比较低,但是所有的转发规则会改变,这需要业内对于芯片和软件的全部修改,是否能够成功也看市场驱动力吧,毕竟市场不全是技术驱动的。

除了我们熟悉的拓扑和路由框架方面,数据中心还有很多比较有意思的趋势在发生,挑几个有意思的

目前数据中心都是以太网有线网络,大量的高突发和高负载各个路由设架构都会涉及,但是如果使用无线是不是也能解决呢,于是极高频技术在数据中心也有了一定的研究(这里特指60GHZ无线),其吞吐可达4Gbps,通过特殊物理环境、波束成形、有向天线等技术使60GHZ部署在数据中心中,目前研究法相集中在无线调度和覆盖中,技术方案为Flyways,它通过合理的机柜摆放及无线节点空间排布来形成有效的整体系统,使用定向天线和波束成形技术提高连接速率等等新的技术,甚至还有一些论文提出了全无线数据中心,这样对数据中心的建设费用降低是非常有助力的。

数据中心目前应用的还是TCP,而TCP在特定场景下一定会遇到性能急剧下降的TCP incast现象,TCP的拥塞避免和慢启动会造成当一条链路拥塞时其承载的多个TCP流可能会同时触发TCP慢启动,但随着所有的TCP流流量增加后又会迅速达到拥塞而再次触发,造成网络中有时间流量很大,有时间流量又很小。如何来解决

数据中心还有很多应用有典型的组通信模式,比如分布式存储、软件升级等等,这种情况下组播是不是可以应用进来,但是组播在数据中心会不会水土不服,如何解决

还有就是数据中心的多路径,可否从TCP层面进行解决,让一条TCP流负载在不同的链路上,而不是在设备上依靠哈希五元组来对每一条流进行特定链路分配

对于TCPincast,一般通过减少RTO值使之匹配RTT,用随机的超时时间来重启动TCP传输。还有一种时设计新的控制算法来避免,甚至有方案抛弃TCP使用UDP来进行数据传输。

对于组播,数据中心的组播主要有将应用映射为网络层组播和单播的MCMD和Bloom Filter这种解决组播可扩展性的方案

对于多路径,提出多径TCP(MPTCP),在源端将数据拆分成诺干部分,并在同一对源和目的之间建立多个TCP连接进行传输,MPTCP对比传统TCP区别主要有

1、MPTCP建立阶段,要求服务器端向客户端返回服务器所有的地址信息

2、不同自流的源/目的可以相同,也可以不同,各个子流维护各自的序列号和滑动窗口,多个子流到达目的后,由接收端进行组装

3、MPTCP采用AIMD机制维护拥塞窗口,但各个子流的拥塞窗口增加与所有子流拥塞窗口的总和相关

还有部分针对TCP的优化,如D3协议,D3是针对数据中心的实时应用,通过分析数据流的大小和完成时间来分配传输速率,并且在网络资源紧张的时候可以主动断开某些预计无法完成传输的数据流,从而保证更多的数据流能按时完成。

这的数据中心节能不会谈风火水电以及液冷等等技术,从网络拓扑的角度谈起,我们所有数据中心拓扑搭建的过程中,主要针对传统树形拓扑提出了很多“富连接”的拓扑,来保证峰值的时候网络流量的保持性,但是同时也带来了不在峰值条件下能耗的增加,同时我们也知道数据中心流量多数情况下远低于其峰值设计,学术界针对这块设计了不少有脑洞的技术,主要分为两类,一类时降低硬件设备能耗,第二类时设计新型路由机制来降低能耗。

硬件能耗的降低主要从设备休眠和速率调整两个方面来实现,其难点主要时定时机制及唤醒速度的问题,当遇到突发流量交换机能否快速唤醒,人们通过缓存和定时器组合的方式进行。

节能路由机制,也是一个非常有特点的技术,核心思想是通过合理的选择路由,只使用一部分网络设备来承载流量,没有承载流量的设备进行休眠或者关闭。Elastic Tree提出了一种全网范围的能耗优化机制,它通过不断的检测数据中心流量状况,在保障可用性的前提下实时调整链路和网络设备状态,Elastic Tree探讨了bin-packer的贪心算法、最优化算法和拓扑感知的启发算法来实现节能的效果。

通过以上可以看到数据中心发展非常多样化,驱动这些技术发展的根本性力量就是成本,人们希望用最低的成本达成最优的数据中心效能,同时内部拓扑方案的研究已经慢慢成熟,目前设备厂商的羹汤可以说就是市场化选择的产物,但是数据中心网络传输协议、虚拟化、节能机制、SDN、服务链等方向的研究方兴未艾,尤其是应用定制的传输协议、虚拟网络带宽保障机制等等,这些学术方面的研究并不仅仅是纸上谈兵,对于我知道的一些信息来说,国内的阿里在它的数据中心网络拓扑中早已经应用了FatTree的变种拓扑,思科也把数据中心内部TCP重传的技术应用在自己的芯片中,称其为CONGA。

坦白来说,网络从来都不是数据中心和云计算的核心,可能未来也不会是,计算资源的形态之争才是主战场,但是网络恰恰是数据中心的一个难点,传统厂商、学术界、大厂都集中在此领域展开竞争,创新也层出不穷,希望能拓展我们的技术视野,能对我们有一些启发,莫听穿林打叶声、何妨吟啸且徐行~

5. 虚拟机冷迁移可以跨数据中心吗

可以。虚拟机冷迁移可将已关闭电源或已挂起的虚拟机移至新主机,从一个数据中心移至另一个数据中心。虚拟机(VirtualMachine)指通过软件模拟的具有完整硬件系统功能的、运行在一个完全隔离环境中的完整计算机系统。

6. 如何在数据中心行业玩转互联网思维

如何在数据中心行业玩转互联网思维

互联网思维在影响着各个行业的发展,数据中心也未能幸免。随着云计算、大数据、物联网等产业的加速发展,互联网数据中心成为我国的战略性基础设施,各地纷纷抢建,形成“烽火遍地”之势。为此,在数据中心行业中应该如何玩转互联网思维呢?

顺应互联网思维 数据中心需改变

其实“互联网思维”并非是全新的概念,数据中心行业玩转互联网思维不需要脱胎换骨的洗礼,其核心实质依旧是对生产力的解放,对服务社会的不断实现,知识在用新的战略视角、新的活法、新的核心竞争力来为企业不断地创造顾客。互联网思维不是换血,降低了数据中心行业玩转互联网思维的成本;互联网思维不是垄断、私有的一家之言,数据中心行业可以运用互联网思维;互联网思维有“黄金屋”,数据中心行业需要互联网思维。

就数据中心行业来说,也需要顺应互联网时代的发展特点,找到自己的新“活法”。

过去,企业需要数据中心服务更多是看中了数据中心在基础设施服务上提供的优秀服务能力,如UPS、机柜、控制系统、空调系统、电能分配单元等等。企业将数据中心服务外包给IDC公司是更多是为了追求更简单的运维、更高效的运行。随着企业规模的不断开展和互联网应用极大的开拓出的市场需求,数据中心原有提供企业的计算服务能力变得越发不足了。

互联网时代 数据中心如何满足未来需求

企业和数据中心运营商面临着传统数据中心带来的挑战,而模块化数据中心的兴起正逐步减弱着这些挑战。其实,我们可以将供电、配电、冷却设施和IT基础设施不安装到数据中心大楼里,在数据中心整个生命周期中,可根据需要通过部署和改变预制构建模块来提高密度和可用性级别,并只需添加额外的匹配电力和冷却构建模块,或将使用交流电的预制构建模块换成使用直流电的模块,而后者将来有望成为标准。

智能又合理的数据中心规划着眼于未来需要,可帮助企业和运营方避免因IT环境中不可预测的变化或不断变幻的商业形势而措手不及。在数据中心规划中使用DCIM数据作为一种基准衡量工具,这也许是最有效的方法之一。

如果借助预制模块化数据中心基础设施和DCIM软件来提高数据中心的灵活性,数据中心运营方就能将其设施由成本中心改为业务助推器,让企业能够更有效地缓解风险,并为未来做好准备。

结语:随着互联网思维的盛行,如何结合行业发展的特点,将这股新潮更好的融入数据中心行业,甚至融入综合布线行业是值得深思的问题。创新永远是发展的不竭动力,而布线行业发展逐步的趋于稳定,我们也急切需要新的发展思维来给行业更多前进动力。

以上是小编为大家分享的关于如何在数据中心行业玩转互联网思维的相关内容,更多信息可以关注环球青藤分享更多干货

阅读全文

与跨数据中心互联解决方法相关的资料

热点内容
简述利润表阅读与分析的方法 浏览:979
猪群最佳引种方法 浏览:57
电脑组装方法步骤图片 浏览:471
花生多效唑的使用方法及注意事项 浏览:444
如何学会吹笛子的方法 浏览:561
环己酮的检测方法 浏览:478
四米八锻炼身体的方法 浏览:784
第八代五粮液酒鉴别真伪的方法2021年 浏览:545
玉石的鉴别方法用手电照 浏览:618
常见的案例研究方法有哪些 浏览:452
100个计算方法视频 浏览:341
膨胀挂钩安装方法 浏览:684
老式全站仪坐标计算方法 浏览:605
支原体的治疗方法 浏览:436
标枪训练方法的应用 浏览:287
快速消耗儿童体力的方法 浏览:667
纸质退单正确书写方法 浏览:94
马云手机创业方法 浏览:567
仔猪的脚疼怎么治疗方法 浏览:974
确定交通事故责任有哪些方法 浏览:957