1. 誰能簡單概括的解釋一下華三的EVI技術
1 什麼是EVI?
EVI(Ethernet Virtual Interconnection,乙太網虛擬化互聯)是H3C(華三通信)的一項專有技術,它是一種先進的「MAC in IP」技術,基於IP核心網實現數據中心間的二層互聯。
2 為什麼需要EVI?
傳統的二層互聯技術只是簡單的把二層范圍從一個數據中心擴展到兩個數據中心,因此二層廣播域也隨之擴展到兩個數據中心,無法實現故障隔離。為了彌補上述的不足,數據中心互聯解決方案EVI(乙太網虛擬互聯)應運而生。
3 EVI如何實現數據中心間的安全隔離?
EVI技術在實現數據中心之間二層互聯的基礎上,也滿足二層互聯的基本要求。通過ARP代答功能、未知目的報文抑制功能、協議報文抑制等功能減少數據中心間的無用報文,達到數據中心之間的安全隔離。
4 如何部署EVI?
EVI解決方案簡單,部署成本低,只需要在站點邊緣部署一個或多個支持EVI功能的設備,EVI方案只是在站點的邊緣設備上維護路由和轉發信息,無需改變站點內部和IP核心網路的路由和轉發信息。另外EVI具有傳輸鏈路無關,可以在多種鏈路上可運行(裸光纖、IP、MPLS),只要鏈路間三層報文可達即可。
5 EVI 與Overlay
IETF在Overlay技術領域提出三大技術方案。分別是VXLAN、NVGRE和STT(有關三者的具體介紹詳見H3C官方技術刊物《IP領航》第29期「基於多租戶的雲計算網路」一文。www.h3c.com.cn)。其中總體比較,VXLAN利用了現有通用的UDP傳輸,成熟度極高,華三支持的也是VXLAN,它常用在數據中心內部。
EVI 是用在數據中心間的Overlay技術,EVI 既支持以VLAN為單位,也支持以VXLAN 為單位在數據中心之間實現二層互聯,是目前最靈活最可靠的雲間二層互聯解決方案。
6 與EVI類似的方案有哪些?
與此類似的技術還有Cisco的OTV,華為的EVN,但是華為的EVN應用不多。EVI與OTV支持的功能相差不多,但在支持的實例數、站點數、單播MAC數、擴展VLAN數目上EVI更有優勢。
2. 實現數據中心間互通的紐帶——DCI技術
現在的數據中心早已不是一座孤立的機房,而是一個建築群。一個數據中心可以包含很多個分支數據中心,可以說是一個數據中心群,這些分支數據中心所處的位置不同,卻可以通過網路互聯起來,共同完成相應的業務部署。像阿里、騰訊、網路等這些大型互聯網公司,為了提升客戶訪問體驗,會在不同省會都會建立自己的數據中心分支機構,以便滿足不同地區的客戶訪問需求,數據中心早已不再局限於一座或幾座機房。
這些數據中心要協同運轉,就需要相互之間交互信息,這就有了互連需求,產生了DCI網路,即Data Center Inter-connect,這里囊括了物理網路層面和邏輯網路層面的技術。要實現不同地區的數據中心互聯,有多種方式:可以直接Internet互聯,可以使用專線互連,也可以使用光纖直連,還可以增加一些加密手段,防止傳輸的數據泄露,這里衍生出了很多新的技術,本文就來講述一下DCI相關的技術,以便大家對DCI有所了解。
實現數據中心間互通的紐帶——DCI技術
DCI互聯通常有三種方式。一種是網路三層互聯,也稱為數據中心前端網路互聯,所謂「前端網路」是指數據中心面向企業園區網或企業廣域網的出口,不同數據中心的前端網路通過IP技術實現互聯,園區或分支的客戶端通過前端網路訪問各數據中心,當主用數據中心發生災難時,前端網路將實現快速收斂,客戶端通過訪問備用的數據中心以保障業務連續性;一種是網路二層互聯,也稱為數據中心伺服器網路互聯,在不同的數據中心伺服器網路接入層,構建一個數據中心間大二層網路,以滿足伺服器集群或虛擬機動態遷移等場景對二層網路接入的需求;最後一種是 SAN互聯,也稱為後端存儲網路互聯,藉助DWDH、SDH等傳輸技術實現數據中心之間磁碟陣列的數據復制。在伺服器集群技術普及之前,這三種互聯方式都有自己的存在空間,但集群應用普及之後,前兩種網路無法適從了。伺服器集群是藉助集群軟體將網路上的多台伺服器關聯在一起,提供一致的服務,對外表現為一台邏輯伺服器。集群軟體需要各伺服器間採用二層網路互聯,才能實現無感知的虛擬機切換。如果採用三層互聯,將無法實現虛擬遷移,如果採用二層打通,安全性成為最大隱患,數十個數據中心形成一個二層網路,一個廣播風暴就會將所有數據中心搞癱,所以兩種方式都無法適應集群部署的應用,於是乎開始出現了很多DCI專用技術。
MPLS技術
基於MPLS技術的實現方案,要求數據中心之間互聯網路是已部署為MPLS技術的核心網,這樣可以直接通過VLL和VPLS完成數據中心直接的二層互聯。MPLS包括二層VPN技術和三層VPN技術,VPLS協議就是二層VPN技術,標准化程度很高,在很多行業都有部署應用。不過,VPLS技術比較復雜,部署及運維的管理難度較大,各種接入方式和類型都比較多,很多時候VPLS網路建好以後,很多人都不敢去動網路配置,容易出問題。在此我向大家推薦一個大數據技術交流圈: 658558542 突破技術瓶頸,提升思維能力 。VPLS在國外的網路中常見一些,而在國內VPLS的部署並不多見,更多的是三層MPLS,不過要支持伺服器集群應用,就不能靠MPLS了,只能是VPLS。VPLS這種技術,其優點是基於MPLS技術可以較為簡單地實現城域/廣域網路的部署,缺點是需要核心網/城域網支持MPLS技術,技術復雜不便於維護。
IP隧道技術
IP隧道技術是基於IP技術,在任意IP網路開啟相應二層隧道來實現數據中心互聯。這個方案擺脫了數據中心之間互聯鏈路的類型限制,是目前的發展方向。IP隧道技術核心思想是通過「MAC in IP」的方式,通過隧道技術穿越三層網路實現二層網路的互通。對MAC地址的學習通過控制平面借鑒IS-IS協議來實現,隧道封裝採用類似GRE的動態封裝方式,最後可以支持雙歸屬的高可用部署方式。比如思科的OTV,H3C的EVI都是這類技術,這類技術基於IP核心網路的L2VPN,可以完成站點的邊緣設備上維護路由和轉發信息,而無需改變站點內部和核心網路。即在IP網路上建立隧道,傳遞經過標簽封裝後的二層數據報文,從而實現跨數據中心的二層互通。數據中心二層互聯方案很大程度上會受限於用戶現有的網路類型,這一情況限制了數據中心對二層互聯方案的應用推廣。IP隧道技術是一種新的組網方案,能夠無視互聯網路的類型差異而統一組網,實現多個數據中心之間的異構網路二層互聯。
VXLAN-DCI隧道技術
VXLAN是基於IP網路、採用「MAC in UDP」封裝形式的二層VPN技術,從事網路工作的對此都應該不陌生。現在如火如荼新建的數據中心,網路部分基本都採用的VXLAN技術,這是未來數據中心網路最為重要的技術之一,是實現網路虛擬化的前提。VXLAN隧道只能用於數據中心內部,實現數據中心內部虛擬機的互聯。VXLAN-DCI隧道則可用來實現數據中心之間的互聯,是一種新型DCI技術,這是部署在VXLAN網路中的重要技術。
從這三種技術不難看出有一個共同特點,都用到了封裝,即在原始報文上再增加一層二層報文頭,從而實現報文的大二層轉發,實現虛擬機可以在所有數據中心之間自由遷移的功能。這些技術充分保留了原有網路的架構,在原有網路上再建設一套虛擬的大二層網路,將所有數據中心二層打通,雖然封裝技術增加了報文封裝,浪費掉一些網路帶寬,但卻解決了數據中心互聯的大問題。現在SDN技術火熱,SDN也可以在數據中心互聯中起到很大作用。通過部署SDN,可做到彈性計費,降低運維成本,簡化操作。未來的數據中心互聯中必將看到SDN的身影。
感謝您的觀看,如有不足之處,歡迎批評指正。
在此我向大家推薦一個大數據開發交流圈:
658558542 ( ☛點擊即可加入群聊 )
裡面整理了一大份學習資料,全都是些干貨,包括大數據技術入門,大數據離線處理、數據實時處理、Hadoop 、Spark、Flink、推薦系統演算法以及源碼解析等,送給每一位大數據小夥伴,讓自學更輕松。這里不止是小白聚集地,還有大牛在線解答!歡迎初學和進階中的小夥伴一起進群學習交流,共同進步!
最後祝福所有遇到瓶頸的大數據程序員們突破自己,祝福大家在往後的工作與面試中一切順利。
3. 聯通雲業務是什麼
雲聯網產品是基於聯通產業互聯網以 SDN 技術為企業客戶、雲服務提供商提供跨數據中心或跨雲之間的連接和組網方案,解決了客戶在不同地域、不同網路環境下多個數據中心或雲之間的通信問題。
4. 數據中心網路之百家講壇
最近因為寫論文的關系,泡知網、泡萬方,發現了很多學術界對數據中心網路一些構想,發現裡面不乏天才的想法,但日常我們沉迷在各個設備廠商調制好的羹湯中無法自拔,管中窺豹不見全局,還一直呼喊著「真香」,對於網工來說沉溺於自己的一方小小天地不如跳出來看看外界有哪些新的技術和思想,莫聽穿林打葉聲,何妨吟嘯且徐行
當前新的數據中心網路拓撲主要分為兩類
1、以交換機為核心,網路連接和路由功能由交換機完成,各個設備廠商的「羹湯」全屬於這個領域
2、以伺服器為核心,主要互聯和路由功能放在伺服器上,交換機只提供簡單縱橫制交換功能
第一類方案中包含了能引發我回憶陰影的Fat-Tree,和VL2、Helios、c-Through、OSA等等,這些方案要麼採用更多數量交換機,要麼融合光交換機進行網路互聯,對交換機軟體和硬體要求比較高,第二類主要有DCell、Bcube、FiConn、CamCube、MDCube等等,主要推動者是微軟,這類方案中伺服器一版會通過多網卡接入網路,為了支持各種流量模型,會對伺服器進行硬體和軟體的升級。
除了這些網路拓撲的變化外,其實對數據中心網路傳輸協議TCP/IP、網路虛擬化、網路節能機制、DCI網路互聯都有很多創新的技術和概念涌現出來。
FatTree 胖樹,2008年由UCSD大學發表的論文,同時也是5年前工作中接觸的第一種交換機為中心的網路拓撲,當時沒有太理解,跟客戶為這事掐的火星四濺,再來一次可能結論會有所改變,同時也是這篇論文引發了學術界對數據中心內部網路拓撲設計的廣泛而深刻的討論,他提出了一套組網設計原則來達成幾個目的
1、全網採用低端商用交換機來組網、其實就是採用1U的接入交換機,取消框式設備
2、全網無阻塞
3、成本節省,紙面測算的話FatTree 可以降為常規模式組網成本的1/4或1/5
物理拓撲(按照4個pod設計)
FatTree 的設計原則如下
整個網路包含K個POD,每個POD有K/2個Edge和K/2個Agg 交換機,他們各有K的介面,Edge使用K/2個埠下聯伺服器,Agg適用K/2個埠上聯CORE交換機
Edge使用K/2個埠連接伺服器,每個伺服器佔用一個交換埠
CORE層由K/2*K/2共計KK/4個K個埠交換機組成,分為K/2組,每組由K/2ge,第一組K/2台CORE交換機連接各個POD中Agg交換層一號交換機,第二組K/2的CORE交換機連接各POD中Agg的二號交換機,依次類推
K個POD,每個POD有K/2個Edge交換機,每個Edge有K/2埠,伺服器總數為K*K/2*K/2=KKK/4
K取值4的話,伺服器總數為16台
常規K取值48的話,伺服器為27648台
FatTree的路由設計更加有意思,論文中叫兩階段路由演算法,首先要說明的是如果使用論文中的演算法是需要對交換機硬軟體進行修改的,這種兩階段路由演算法和交換設備及伺服器的IP地址強相關,首先就是IP地址的編制,這里依然按照K=4來設計,規則如下
1、POD中交換機IP為10.pod.switch.1,pod對應POD編號,switch為交換機所在POD編號(Edge從0開始由左至右到k/2-1,Agg從k/2至k-1)
2、CORE交換機IP為10.k.j.i ,k為POD數量,j為交換機在Core層所屬組編號,i為交換機在該組中序號
3、伺服器IP為10.pod.switch.ID,ID為伺服器所在Edge交換機序號,交換機已經佔用.1,所以從2開始由左至右到k/2+1
設計完成後交換機和伺服器的IP地址會如下分配
對於Edge交換機(以10.2.0.1為例)第一階段匹配10.2.0.2和10.2.0.3的32位地址,匹配則轉發,沒有匹配(既匹配0.0.0.0/0)則根據目的地址後8位,也就是ID號,選擇對應到Agg的鏈路,如目標地址為x.x.x.2則選擇到10.2.2.1的鏈路,目標地址為x.x.x.3則選擇到10.2.3.1的鏈路
對於Agg交換機(以10.2.2.1為例)第一階段匹配本POD中網段10.2.0.0/24和10.2.1.0/24,匹配成功直接轉發對應Edge,沒有匹配(既匹配0.0.0.0/0)則根據目的地址後8位,也就是ID號確定對應到Core的鏈路,如目標地址為x.x.x.2則選擇到10.4.1.1的鏈路,目標地址為x.x.x.3則選擇到10.4.1.2的鏈路
對於Core交換機,只有一個階段匹配,只要根據可能的POD網段進行即可,這里是10.0.0.0/16~10.3.0.0/16對應0、1、2、3四個口進行轉發
容錯方面論文提到了BFD來防止鏈路和節點故障,同時還有流量分類和調度的策略,這里就不展開了,因為這種兩階段路由演算法要對交換機硬體進行修改,適應對IP後8位ID進行匹配,現實中沒有看到實際案例,但是我們可以設想一下這種簡單的轉發規則再加上固定埠的低端交換機,對於轉發效率以及成本的壓縮將是極為可觀的。尤其這種IP地址規則的設計配合路由轉發,思路簡直清奇。但是仔細想想,這種按照特定規則的IP編制,把每個二層限制在同一個Edge交換機下,註定了虛擬機是沒有辦法跨Edge來遷移的,只從這點上來看註定它只能存在於論文之中,但是順著這個思路開個腦洞,還有什麼能夠編制呢?就是MAC地址,如果再配上集中式控制那就更好了,於是就有了一種新的一種路由方式PortLand,後續我們單獨說。
如此看來FatTree 是典型的Scale-out模式,但是由於一般交換機埠通常為48口,如果繼續增加埠數量,會導致成本的非線性增加,底層Edge交換機故障時,難以保障服務質量,還有這種拓撲在大數據的maprece模型中無法支持one-to-all和all-to-all模式。
把腦洞開的稍微小一些,我們能否用通用商業交換機+通用路由來做出來一種FatTree變種拓撲,來達到成本節省的目的呢,答案一定是確切的,目前能看到阿里已經使用固定48口交換機搭建自己的變種FatTree拓撲了。
以交換機為中心的網路拓撲如VL2、Helios不再多說,目前看到最好的就是我們熟知的spine-leaf結構,它沒有設計成1:1收斂比,而且如果使用super層的clos架構,也可以支撐幾萬台或者百萬台的伺服器規模,但是FaTtree依靠網路拓撲取消掉了框式核心交換機,在一定規模的數據中心對於壓低成本是非常有效的
聊完交換機為核心的拓撲設計後,再來看看伺服器為核心的拓撲,同樣這些DCell、Bcube、FiConn、CamCube、MDCube等,不會全講,會拿DCell來舉例子,因為它也是2008年由微軟亞洲研究院主導,幾乎和FatTree同時提出,開創了一個全新的思路,隨後的年份里直到今天一直有各種改進版本的拓撲出現
這種伺服器為核心的拓撲,主導思想是在伺服器上增加網卡,伺服器上要有路由轉發邏輯來中轉流量數據包,並且採用遞推方式進行組網。
DCell的基本單元是DCell0,DCell0中伺服器互聯由一台T個埠的mini交換機完成,跨DCell的流量要通過伺服器網卡互聯進行繞轉。通過一定數量的Dcell0組成一個DCell1,按照一定約束條件進行遞推,組成DCell2以及DCellk
上圖例中是一個DCell1的拓撲,包含5個Dcell0,每台伺服器2個埠,除連接自己區域的mini交換機外,另一個埠會依次連接其他DCell0中的伺服器,來組成全互聯的結構,最終有20台伺服器組成DCell1,所有伺服器按照(m,n)坐標進行唯一標識,m相同的時候直接通過moni交換機交互,當m不同時經由mini交換機中繼到互聯伺服器,例子中紅色線為4.0伺服器訪問1.3伺服器的訪問路徑。
DCell組網規則及遞歸約束條件如下:
DCellk中包含DCellk-1的數量為GK
DCellk中包含伺服器為Tk個,每台伺服器k+1塊網卡,則有
GK=Tk-1+1
TK=Gk-1 ✕ Tk-1
設DCell0中有4台伺服器
DCell1 中有5個DCell0 (G1=5)
Tk1=20台伺服器(T1=20)
DCell2 中有21個DCell1 (G2=21)
Tk2=420台伺服器(T2=420)
DCell3 中有421個DCell2 (G3=421)
Tk3=176820台伺服器(T3=176820)
…
Tk6=3260000台伺服器
經過測算DCell3中每台伺服器的網卡數量為4,就能組建出包含17萬台伺服器的數據中心,同樣DCell的缺點和優點一樣耀眼,這種遞歸後指數增長的網卡需求量,在每台伺服器上可能並不多,但是全量計算的話就太過於驚人了,雖然對比FatTree又再一次降低交換機的采購成本,但是天量的網卡可以想像對於運維的壓力,還有關鍵的問題時高層次DCell間通信佔用低層次DCell網卡帶寬必然導致低層次DCell經常擁塞。最後還有一個實施的問題,天量的不同位置網卡布線對於施工的准確度以及未知的長度都是一個巨大的挑戰。
DCell提出後,隨後針對網卡數量、帶寬搶占等一系列問題演化出來一批新的網路拓撲,思路無外乎兩個方向,一個是增加交換機數量減少單服務網卡數量,趨同於spine-leaf體系,但是它一直保持了伺服器多網卡的思路。另一種是極端一些,乾脆消滅所有交換機,但是固定單伺服器網卡數量,按照矩陣形式組建純伺服器互聯結構,感興趣的同學可以繼續探索。
數據中心的路由框架涵蓋范圍和領域非常多,很多論文都選擇其中的一個點進行討論,比如源地址路由、流量調度、收斂、組播等等,不計劃每個展開,也沒有太大意義。但是針對之前FatTree的兩階段路由有一個更新的路由框架設計PortLand,它解決了兩段路由中虛擬機無法遷移的問題,它的關鍵技術有以下幾點
1、對於FatTree這種高度規范化的拓撲,PortLand設計為採用層次化MAC編址來支持大二層,這種路由框架中,除了虛擬機/物理機實際的MAC外(AMAC),還都擁有一個PortLand規范的偽MAC(PMAC),網路中的轉發機制和PMAC強相關,PMAC的編址規則為
pod.position.port.vmid
pod (2位元組) 代表虛擬機/伺服器所在POD號,position(1位元組)虛擬機/伺服器所在Edge交換機在POD中編號,port(1位元組)虛擬機/伺服器連接Edge交換機埠的本地編號,vmid(2位元組)伺服器在Edge下掛乙太網交換機編號,如果只有一台物理機vmid只能為1
2、虛擬機/伺服器的編址搞定後,Edge、Aggregate、Core的編址呢,於是PortLand設計了一套拓撲發現機制LDP(location discovery protocol),要求交換機在各個埠上發送LDP報文LDM(location
discovery message)識別自己所處位置,LDM消息包含switch_id(交換機自身mac,與PMAC無關)pod(交換機所屬pod號)pos(交換機在pod中的編號)level(Edge為0、Agg為1、Core為2)dir(上聯為1,下聯為-1),最開始的時候Edge角色會發現連接伺服器的埠是沒有LDM的,它就知道自己是Edge,Agg和Core角色依次收到LDM後會計算並確定出自己的leve和dir等信息。
3、設計一個fabric manager的集中PortLand控制器,它負責回答Edge交換機pod號和ARP解析,當Edge交換機學習到一個AMAC時,會計算一個PMAC,並把IP/AMAC/PMAC對應關系發送給fabric manager,後續有虛擬機/伺服器請求此IP的ARP時,會回復PMAC地址給它,並使用這個PMAC進行通信。
4、由於PMAC的編址和pod、pos、level等信息關聯,而所有交換機在LDM的交互過程中知曉了全網的交換機pod、pos、level、dir等信息,當數據包在網路中傳播的時候,途徑交換機根據PMAC進行解析可得到pod、pos這些信息,根據這些信息即可進行數據包的轉發,數據包到達Edge後,Edge交換機會把PMAC改寫為AMAC,因為它是知道其對應關系的。當虛擬機遷移後,由fabric manager來進行AMAC和PMAC對應更新和通知Edge交換機即可,論文中依靠虛擬機的免費ARP來觸發,這點在實際情況中執行的效率要打一個問號。
不可否認,PortLand的一些設計思路非常巧妙,這種MAC地址重寫非常有特色。規則設計中把更多的含義賦給PMAC,並且通過LDP機制設計為全網根據PMAC即可進行轉發,再加上集中的控制平面fabric manager,已經及其類似我們熟悉的SDN。但是它對於轉發晶元的要求可以看出要求比較低,但是所有的轉發規則會改變,這需要業內對於晶元和軟體的全部修改,是否能夠成功也看市場驅動力吧,畢竟市場不全是技術驅動的。
除了我們熟悉的拓撲和路由框架方面,數據中心還有很多比較有意思的趨勢在發生,挑幾個有意思的
目前數據中心都是乙太網有線網路,大量的高突發和高負載各個路由設架構都會涉及,但是如果使用無線是不是也能解決呢,於是極高頻技術在數據中心也有了一定的研究(這里特指60GHZ無線),其吞吐可達4Gbps,通過特殊物理環境、波束成形、有向天線等技術使60GHZ部署在數據中心中,目前研究法相集中在無線調度和覆蓋中,技術方案為Flyways,它通過合理的機櫃擺放及無線節點空間排布來形成有效的整體系統,使用定向天線和波束成形技術提高連接速率等等新的技術,甚至還有一些論文提出了全無線數據中心,這樣對數據中心的建設費用降低是非常有助力的。
數據中心目前應用的還是TCP,而TCP在特定場景下一定會遇到性能急劇下降的TCP incast現象,TCP的擁塞避免和慢啟動會造成當一條鏈路擁塞時其承載的多個TCP流可能會同時觸發TCP慢啟動,但隨著所有的TCP流流量增加後又會迅速達到擁塞而再次觸發,造成網路中有時間流量很大,有時間流量又很小。如何來解決
數據中心還有很多應用有典型的組通信模式,比如分布式存儲、軟體升級等等,這種情況下組播是不是可以應用進來,但是組播在數據中心會不會水土不服,如何解決
還有就是數據中心的多路徑,可否從TCP層面進行解決,讓一條TCP流負載在不同的鏈路上,而不是在設備上依靠哈希五元組來對每一條流進行特定鏈路分配
對於TCPincast,一般通過減少RTO值使之匹配RTT,用隨機的超時時間來重啟動TCP傳輸。還有一種時設計新的控制演算法來避免,甚至有方案拋棄TCP使用UDP來進行數據傳輸。
對於組播,數據中心的組播主要有將應用映射為網路層組播和單播的MCMD和Bloom Filter這種解決組播可擴展性的方案
對於多路徑,提出多徑TCP(MPTCP),在源端將數據拆分成諾幹部分,並在同一對源和目的之間建立多個TCP連接進行傳輸,MPTCP對比傳統TCP區別主要有
1、MPTCP建立階段,要求伺服器端向客戶端返回伺服器所有的地址信息
2、不同自流的源/目的可以相同,也可以不同,各個子流維護各自的序列號和滑動窗口,多個子流到達目的後,由接收端進行組裝
3、MPTCP採用AIMD機制維護擁塞窗口,但各個子流的擁塞窗口增加與所有子流擁塞窗口的總和相關
還有部分針對TCP的優化,如D3協議,D3是針對數據中心的實時應用,通過分析數據流的大小和完成時間來分配傳輸速率,並且在網路資源緊張的時候可以主動斷開某些預計無法完成傳輸的數據流,從而保證更多的數據流能按時完成。
這的數據中心節能不會談風火水電以及液冷等等技術,從網路拓撲的角度談起,我們所有數據中心拓撲搭建的過程中,主要針對傳統樹形拓撲提出了很多「富連接」的拓撲,來保證峰值的時候網路流量的保持性,但是同時也帶來了不在峰值條件下能耗的增加,同時我們也知道數據中心流量多數情況下遠低於其峰值設計,學術界針對這塊設計了不少有腦洞的技術,主要分為兩類,一類時降低硬體設備能耗,第二類時設計新型路由機制來降低能耗。
硬體能耗的降低主要從設備休眠和速率調整兩個方面來實現,其難點主要時定時機制及喚醒速度的問題,當遇到突發流量交換機能否快速喚醒,人們通過緩存和定時器組合的方式進行。
節能路由機制,也是一個非常有特點的技術,核心思想是通過合理的選擇路由,只使用一部分網路設備來承載流量,沒有承載流量的設備進行休眠或者關閉。Elastic Tree提出了一種全網范圍的能耗優化機制,它通過不斷的檢測數據中心流量狀況,在保障可用性的前提下實時調整鏈路和網路設備狀態,Elastic Tree探討了bin-packer的貪心演算法、最優化演算法和拓撲感知的啟發演算法來實現節能的效果。
通過以上可以看到數據中心發展非常多樣化,驅動這些技術發展的根本性力量就是成本,人們希望用最低的成本達成最優的數據中心效能,同時內部拓撲方案的研究已經慢慢成熟,目前設備廠商的羹湯可以說就是市場化選擇的產物,但是數據中心網路傳輸協議、虛擬化、節能機制、SDN、服務鏈等方向的研究方興未艾,尤其是應用定製的傳輸協議、虛擬網路帶寬保障機制等等,這些學術方面的研究並不僅僅是紙上談兵,對於我知道的一些信息來說,國內的阿里在它的數據中心網路拓撲中早已經應用了FatTree的變種拓撲,思科也把數據中心內部TCP重傳的技術應用在自己的晶元中,稱其為CONGA。
坦白來說,網路從來都不是數據中心和雲計算的核心,可能未來也不會是,計算資源的形態之爭才是主戰場,但是網路恰恰是數據中心的一個難點,傳統廠商、學術界、大廠都集中在此領域展開競爭,創新也層出不窮,希望能拓展我們的技術視野,能對我們有一些啟發,莫聽穿林打葉聲、何妨吟嘯且徐行~
5. 虛擬機冷遷移可以跨數據中心嗎
可以。虛擬機冷遷移可將已關閉電源或已掛起的虛擬機移至新主機,從一個數據中心移至另一個數據中心。虛擬機(VirtualMachine)指通過軟體模擬的具有完整硬體系統功能的、運行在一個完全隔離環境中的完整計算機系統。
6. 如何在數據中心行業玩轉互聯網思維
如何在數據中心行業玩轉互聯網思維
互聯網思維在影響著各個行業的發展,數據中心也未能倖免。隨著雲計算、大數據、物聯網等產業的加速發展,互聯網數據中心成為我國的戰略性基礎設施,各地紛紛搶建,形成「烽火遍地」之勢。為此,在數據中心行業中應該如何玩轉互聯網思維呢?
順應互聯網思維 數據中心需改變
其實「互聯網思維」並非是全新的概念,數據中心行業玩轉互聯網思維不需要脫胎換骨的洗禮,其核心實質依舊是對生產力的解放,對服務社會的不斷實現,知識在用新的戰略視角、新的活法、新的核心競爭力來為企業不斷地創造顧客。互聯網思維不是換血,降低了數據中心行業玩轉互聯網思維的成本;互聯網思維不是壟斷、私有的一家之言,數據中心行業可以運用互聯網思維;互聯網思維有「黃金屋」,數據中心行業需要互聯網思維。
就數據中心行業來說,也需要順應互聯網時代的發展特點,找到自己的新「活法」。
過去,企業需要數據中心服務更多是看中了數據中心在基礎設施服務上提供的優秀服務能力,如UPS、機櫃、控制系統、空調系統、電能分配單元等等。企業將數據中心服務外包給IDC公司是更多是為了追求更簡單的運維、更高效的運行。隨著企業規模的不斷開展和互聯網應用極大的開拓出的市場需求,數據中心原有提供企業的計算服務能力變得越發不足了。
互聯網時代 數據中心如何滿足未來需求
企業和數據中心運營商面臨著傳統數據中心帶來的挑戰,而模塊化數據中心的興起正逐步減弱著這些挑戰。其實,我們可以將供電、配電、冷卻設施和IT基礎設施不安裝到數據中心大樓里,在數據中心整個生命周期中,可根據需要通過部署和改變預制構建模塊來提高密度和可用性級別,並只需添加額外的匹配電力和冷卻構建模塊,或將使用交流電的預制構建模塊換成使用直流電的模塊,而後者將來有望成為標准。
智能又合理的數據中心規劃著眼於未來需要,可幫助企業和運營方避免因IT環境中不可預測的變化或不斷變幻的商業形勢而措手不及。在數據中心規劃中使用DCIM數據作為一種基準衡量工具,這也許是最有效的方法之一。
如果藉助預制模塊化數據中心基礎設施和DCIM軟體來提高數據中心的靈活性,數據中心運營方就能將其設施由成本中心改為業務助推器,讓企業能夠更有效地緩解風險,並為未來做好准備。
結語:隨著互聯網思維的盛行,如何結合行業發展的特點,將這股新潮更好的融入數據中心行業,甚至融入綜合布線行業是值得深思的問題。創新永遠是發展的不竭動力,而布線行業發展逐步的趨於穩定,我們也急切需要新的發展思維來給行業更多前進動力。
以上是小編為大家分享的關於如何在數據中心行業玩轉互聯網思維的相關內容,更多信息可以關注環球青藤分享更多干貨