由于越來越多的服務(wù)器被虛擬化,因此服務(wù)器之間的連接也自然而然地主要通過運行在服務(wù)器上的虛擬交換機來進(jìn)行。如此便出現(xiàn)了一個問題:架頂式數(shù)據(jù)中心交換機(ToR)最終會被并入服務(wù)器嗎?
支持者們認(rèn)為答案是肯定的,尤其是因為現(xiàn)在的服務(wù)器一般都是多核的、2層智能的和高密度光接口的。因此上行的內(nèi)核連接可由光交叉連接來提供,這不過是把流量從服務(wù)器轉(zhuǎn)移到方向引導(dǎo)器上而已。
比較保守的人則認(rèn)為答案是否定的,或者說短期內(nèi)不可能。服務(wù)器還將繼續(xù)承擔(dān)虛機間的交換責(zé)任,而架頂式交換機則將繼續(xù)存在下去。
在問及服務(wù)器是否最終會取代ToR交換機時,Dell“Oro的交換機分析師Alan Weckel說:
“這個問題沒辦法簡單作答。歸根結(jié)底,機架服務(wù)器還是要連接到ToR交換機上去的。這就是目前80%的市場現(xiàn)狀。所以說,ToR不會很快消失?!?/p>
Fiber Mountain的觀點與此不同。這家新創(chuàng)企業(yè)專門設(shè)計軟件控制的光交叉連接,就是為了盡可能避免太多的數(shù)據(jù)包在數(shù)據(jù)中心服務(wù)器端口之間的點對點光纖鏈路上進(jìn)行處理。
“我們正準(zhǔn)備擯棄層的概念:交換機層、交換機之間的鏈路層,等等,”Fiber Mountain的創(chuàng)始人兼CEO MH Raza說。“交換作為一種功能正在從交換機盒子里分離出來,成為服務(wù)器盒子里的與其他功能共存的功能。假如我們把交換功能放入服務(wù)器里,其邏輯就和機架前端的很多服務(wù)器一樣,服務(wù)器內(nèi)置交換機就跟內(nèi)置了眾多的虛機一樣。為何不能在服務(wù)器上進(jìn)行交換呢?這在服務(wù)器上是可以做到的?!?/p>
Raza說,他知道有一家廠商(名字略去)制作的英特爾多核主板就帶Broadcom Trident II交換芯片和一個高容量光纖連接器。這個1U設(shè)備有一個光纖接口,可支持最多64個25Gbps通道,容量可從800G到1.6Tbps—這一容量與英特爾和Corning MXC連接器的一樣。利用MXC以及相同的硅光子技術(shù),服務(wù)器之間也能直接通信,而無須使用任何交換機。
“交換是可以由服務(wù)器來做的,”他說?!拔铱梢苑峙鋽?shù)據(jù)包走右邊的通道。它還需要去多少個地方?10個、12個,還是40個?都不成問題。只要你有MXC連接器,你就能讓數(shù)據(jù)包去32個不同的目的地?!?/p>
Raza稱,實現(xiàn)這一點現(xiàn)在就是可能的,而之所以沒人談?wù)撍且驗檫@一前景極具顛覆性。我們依然還帶著傳統(tǒng)網(wǎng)絡(luò)思維的眼罩?!坝袥]有人談?wù)撍?,要取決于市場采用硅光子技術(shù)的速度有多快,”Raza說。“但它現(xiàn)在肯定是可以做到的。具體時間表要取決于技術(shù)和市場上的投資和轉(zhuǎn)移?!?/p>
鑒于VMware的NSX產(chǎn)品可在VMware虛擬服務(wù)器環(huán)境中處理虛擬交換,你或許會認(rèn)為該公司就是服務(wù)器最終包容交換機這一概念的最大支持者。但VMware網(wǎng)絡(luò)安全事業(yè)部的首席技術(shù)戰(zhàn)略官Guido Appenzeller稱,盡管服務(wù)器作為ToR交換機架構(gòu)模式是為超大規(guī)模環(huán)境而提出的,也從未見到它被實際使用過。
“總之,如果想放棄ToR,那服務(wù)器就得增加類似包分類引擎的新的芯片,”Appenzeller說。“可能需要在服務(wù)器內(nèi)增加一個微型交換機。但今天的服務(wù)器架構(gòu)還無法支持它?!?/p>
微型交換機應(yīng)該是以太網(wǎng)設(shè)備,能夠?qū)崿F(xiàn)服務(wù)器-to-服務(wù)器的光纖直連。另一種選擇是1層交叉連接和服務(wù)器主板上的多路復(fù)用,Appenzeller說。
Appenzeller之所以贊成以太網(wǎng)微型交換機,是因為此類交換機對于服務(wù)器圈子來說相當(dāng)熟悉,而且它對VLAN的分隔能力也是有些光交叉連接無法做到的。“但我從未見到有誰部署過這兩者,”Appenzeller說??赡苁且驗門oR交換機的端口價格下跌得很快,而使兩者都顯得不太可行吧。
Dell”O(jiān)ro對此也表贊同。該咨詢機構(gòu)的報告稱,2011年到2016年間,10G以太網(wǎng)的平均端口售價從715美元跌到了212美元。
據(jù)Cumulus網(wǎng)絡(luò)公司CEO兼聯(lián)合創(chuàng)始人JR Rivers說,網(wǎng)絡(luò)芯片廠商如Broadcom和Mellanox所提供的網(wǎng)絡(luò)處理器的性價比要高于通用CPU。還有,帶網(wǎng)絡(luò)功能的中央CPU的性能會下降,從而會使其價值降低。就像Rivers所言:“要在CPU上多增加一個方塊,回報肯定會受損?!?/p>
River稱,之前也曾有企業(yè)評估過光纖互連和背板,但由于成本太高,太過復(fù)雜而沒能啟動。而解耦和池化計算、網(wǎng)絡(luò)及存儲資源則可以通過軟件讓IT機架更為靈活、敏捷,利用硅光子互連架構(gòu)可將所有這些池化資源都連接起來。
然而這種方式仍可能被證明過于復(fù)雜而不切實際,Rivers稱。
“光背板太過復(fù)雜,所以才沒能普及開來,”他說?!癛ackScale與今天的數(shù)據(jù)中心環(huán)境耦合得相當(dāng)緊密,而且是經(jīng)過良好設(shè)計的系統(tǒng),這一點與能夠在全網(wǎng)上快速遷移的松耦合系統(tǒng)是不同的。RackScale似乎想一招鮮吃遍天,但這是不可能的,而且其客戶往往也無法從中獲益。”
他將這種努力比喻做嵌入刀片服務(wù)器中的刀片式交換機,用戶一般都會忽略其存在,仍然會繼續(xù)讓刀片與思科的交換機端口連接。
依照同樣的思路,River對數(shù)據(jù)中心使用光技術(shù),繞開ToR交換機,直連服務(wù)器的做法也表示了懷疑。
“傳輸一個大文件不到一秒,所以很難看到這種技術(shù)的好處,”River說。“要想看到光交叉技術(shù)成為永久改變網(wǎng)絡(luò)的基礎(chǔ)技術(shù)要素也很困難。更何況它們已存在了相當(dāng)一段時間了?!?/p>
按照英特爾的說法,即便服務(wù)器將會承擔(dān)更多的交換智能和本地功能,但ToR仍將作為物理上獨立的交換機存在。
“ToR仍將在數(shù)據(jù)中心內(nèi)部發(fā)揮重要作用,”英特爾通信基礎(chǔ)設(shè)施部門總經(jīng)理Steve Price說?!澳壳暗内厔菔?,在服務(wù)器機架上還會不斷增加網(wǎng)絡(luò)智能。例如,策略執(zhí)行和多租戶隧道功能今天或者發(fā)生在vSwitch上,或者發(fā)生在ToR上。隨著機架內(nèi)計算密度的增加,以及服務(wù)器上SDN和NFV的出現(xiàn),機架內(nèi)每個隔板上跨虛擬和物理交換機的東西向流量將會增加。服務(wù)器將會成為能夠通過IA架構(gòu)上的軟件處理數(shù)據(jù)包的混合平臺,利用隔板內(nèi)的交換可匯聚和管理跨多臺服務(wù)器的工作負(fù)載。”
Price說,隔板內(nèi)交換可以為本機架內(nèi)的多臺服務(wù)器提供低延遲的連接性,然后通過100G以太網(wǎng)將流量匯聚給ToR。不過他也承認(rèn),在每個服務(wù)器隔板上提供高密度端口的交換會增加布線成本,所以英特爾建議可將所有服務(wù)器隔板上的流量匯聚起來,通過100G以太網(wǎng)再上行鏈路給ToR。
英特爾的戰(zhàn)略就是增加在Open vSwitch社區(qū)項目上的投入,關(guān)注數(shù)據(jù)平面開發(fā)工具套件(DPDK),同時提升IA架構(gòu)上虛擬交換的性能,在需要的時候可以讓硬件卸載流量給NIC和/或物理交換機。Price稱,DPDK目前已計劃納入Open vSwitch 2.4。
Price認(rèn)為,RackScale架構(gòu)更關(guān)注的則是超大規(guī)模數(shù)據(jù)中心,此類數(shù)據(jù)中心的管理者希望降低TCO,提高資源的靈活性和敏捷性。
思科計算系統(tǒng)產(chǎn)品事業(yè)部的技術(shù)營銷總監(jiān)Dan Hanson說,英特爾和思科之間已對RackScale架構(gòu),以及一般地對服務(wù)器/交換機的解耦和分布式內(nèi)存體系都進(jìn)行了討論。Hanson認(rèn)為,思科對交換機解耦的觀點是與英特爾互補的,但在如何最好地實現(xiàn)解耦方面存在分歧。
“這個概念包含了很多的承諾,也有很多人在推動這件事情,”Hanson說?!八伎浦皇窍雽ふ业綄崿F(xiàn)它的最佳途徑?!?/p>
Hanson認(rèn)為,英特爾的DPDK是一種可能的途徑,因為它可以用一些硬件來輔助思科的UCS服務(wù)器在網(wǎng)絡(luò)功能虛擬化應(yīng)用中能力的發(fā)揮,而通用的x86平臺是缺乏這些功能的。但如何最佳地實現(xiàn)分布式、非匯聚交換以及內(nèi)存管理,業(yè)界何時才能做好這方面的準(zhǔn)備,目前依然處在開放討論階段。
“我們之所以跟英特爾討論RackScale架構(gòu)的原因就在于這是一種補充架構(gòu),我們可以從中尋找到向服務(wù)器更多部分?jǐn)U展的途徑,”Hanson說?!暗侥壳盀橹梗覀冞€只是在UCS機架內(nèi)共享這些組件中的一部分,但尚未擴(kuò)展到英特爾所關(guān)注的內(nèi)存層面?!?/p>
Hanson指出,思科3個月前所發(fā)布的在其UCS M系列服務(wù)器上所使用的System Link技術(shù)就有可以映射到RackScale上的功能。System Link是一塊芯片,可以為M系列提供連接非匯聚子系統(tǒng)到fabric架構(gòu)的能力,后者是軟件定義的、基于策略配置的、可部署和管理每個應(yīng)用資源的架構(gòu)。
但是和Dell“Oro的Weckel一樣,Hanson認(rèn)為,客戶采用System Link、RackScale或服務(wù)器/交換機解耦的速度將最終將決定服務(wù)器能否或何時會取代ToR交換機。
“問題在于,這個過程發(fā)生的速度,以及相互間結(jié)合的深度,”Hanson說?!澳壳斑€有一些底層技術(shù)問題亟待解決??蛻粝夹g(shù)變革的能力將成為主要的推動因素。我們一直在尋求我們所能帶來的新的和更好的技術(shù),但是這一過程還是會更多地取決于客戶愿意接受的某項技術(shù)的滲透率?!?/p>