100GbE:奢侈還是必需品?

IEEE P802.3ba 是一種透過 100 Gb 乙太網路 (100GbE) 傳輸資料的標準,於 2007 年至 2010 年期間制定[3],但直到 2018 年才開始普及[5]。為什麼是在 2018 年而不是更早?為什麼立即成群結隊?至少有五個原因.....

100GbE:奢侈還是必需品?

IEEE P802.3ba主要是為了滿足資料中心的需求和互聯網流量交換點(獨立運營商之間)的需求而開發的;以及確保資源密集網路服務的不間斷運行,例如具有大量影片內容的入口網站(例如 YouTube);以及高效能運算。 [3] 普通網路使用者也對不斷變化的頻寬需求做出了貢獻:許多人擁有數位相機,人們希望透過網路傳輸他們捕獲的內容。那。隨著時間的推移,網路上流傳的內容量變得越來越大。無論是在專業層面或消費者層面。在所有這些情況下,當資料從一個域傳輸到另一個域時,關鍵網路節點的總吞吐量早已超過10GbE連接埠的能力。 [1] 這就是新標準出現的原因:100GbE。

大型資料中心和雲端服務供應商已經在積極使用 100GbE,並計劃在幾年內逐步轉向 200GbE 和 400GbE。同時,他們已經在考慮超過太比特的速度。 [6] 儘管有一些大型供應商去年才轉向 100GbE(例如 Microsoft Azure)。為金融服務、政府平台、石油和天然氣平台以及公用事業運行高效能運算的資料中心也已開始轉向 100GbE。 [5]

在企業資料中心,對頻寬的需求稍低:直到最近,10GbE 才成為這裡的必需品,而不是奢侈品。然而,隨著流量消耗速度越來越快,10GbE在企業資料中心的生存時間至少10年甚至5年都值得懷疑。相反,我們將看到快速遷移到 25GbE,甚至更快地遷移到 100GbE。 [6] 因為,正如英特爾分析師指出的那樣,資料中心內部的流量強度每年增加 25%。 [5]

戴爾和惠普的分析師表示 [4] 2018 年是資料中心 100GbE 的一年。早在 2018 年 100 月,2017GbE 設備的交付量是 40 年全年交付量的兩倍。隨著資料中心開始大量放棄 2022GbE,出貨量持續加快。預計到 19,4 年,100GbE 端口的年出貨量將達到 2017 萬個(相較之下,4,6 年這一數字為 4 萬個)。 [2017] 至於成本,100年7GbE埠花費2020億美元,據預測,20年將花費約1億美元(見圖1)。 [XNUMX]

100GbE:奢侈還是必需品?
圖1 網路設備需求統計及預測

為什麼現在? 100GbE 並不是一項新技術,那麼為什麼現在對其有如此多的炒作呢?

1)因為這項技術已經成熟且變得更便宜。 2018 年,我們突破了界限,在資料中心使用具有 100G 連接埠的平台變得比「堆疊」多個 10G 平台更具成本效益。範例:Ciena 5170(請參閱圖 2)是一個緊湊型平台,可提供 800GbE(4x100GbE、40x10GbE)的聚合吞吐量。如果需要多個 10 Gb 連接埠來提供必要的吞吐量,那麼額外的硬體、額外的空間、額外的功耗、持續維護、額外的備件和額外的冷卻系統的成本加起來就相當可觀了。 [1] 例如,惠普專家在分析從10GbE 遷移到100GbE 的潛在好處時得出以下數字:更高的性能(56%)、更低的總成本(27%)、更低的功耗(31% )、簡化電纜連接(減少 38%)。 [5]

100GbE:奢侈還是必需品?
圖 2. Ciena 5170:具有 100 個千兆埠的範例平台

2) Juniper 和 Cisco 最終為 100GbE 交換器創建了自己的 ASIC。 [5] 這雄辯地證實了100GbE技術已經真正成熟的事實。事實是,只有在以下情況下,製造 ASIC 晶片才具有成本效益:首先,其上實現的邏輯在可預見的將來不需要更改;其次,當製造大量相同的晶片時。如果對 100GbE 的成熟度沒有信心,Juniper 和 Cisco 就不會生產這些 ASIC。

3) 因為Broadcom、Cavium和Mellanox Technologie已經開始生產支援100GbE的處理器,而這些處理器已經用於戴爾、惠普、華為技術、聯想集團等製造商的交換器中[5]

4) 因為伺服器機架中的伺服器越來越多地配備最新的Intel 網路適配器(見圖3),具有兩個25 Gigabit 端口,有時甚至配備具有兩個40 Gigabit 連接埠的融合網路適配器(XXV710 和XL710 )。 {圖 3. 最新英特爾網卡:XXV710 和 XL710}

5) 由於 100GbE 設備向後相容,這簡化了部署:您可以重複使用已經佈線的電纜(只需將新的收發器連接到它們)。

此外,100GbE 的可用性使我們為新技術做好了準備,例如「NVMe over Fabrics」(例如,Samsung Evo Pro 256 GB NVMe PCIe SSD;見圖4)[8, 10]、「儲存區域網路」(SAN ) )/「軟體定義儲存」(見圖 5)[7]、RDMA [11],如果沒有 100GbE,就無法充分發揮其潛力。

100GbE:奢侈還是必需品?
圖 4. 三星 Evo Pro 256 GB NVMe PCIe SSD

100GbE:奢侈還是必需品?
圖 5.“儲存區域網路”(SAN)/“軟體定義儲存”

最後,作為使用 100GbE 及相關高速技術的實際需求的一個奇特例子,我們可以引用劍橋大學的科學雲(見圖 6),它是建立在 100GbE 基礎上的(Spectrum SN2700 乙太網路交換器)- 除其他外,為了確保NexentaEdge SDS 分散式磁碟儲存的高效能運行,該儲存很容易使10/40GbE 網路過載。 [2] 部署此類高效能科學雲端來解決各種應用科學問題 [9, 12]。例如,醫學科學家使用此類雲來破解人類基因組,100GbE 通道用於在大學研究小組之間傳輸訊息。

100GbE:奢侈還是必需品?
圖 6. 劍橋大學科學雲片段

參考書目

  1. 約翰霍金斯。 100GbE:更接近邊緣,更接近現實 // 2017。
  2. 阿米特·卡茨. 100GbE 交換器 – 您有計算過嗎? // 2016。
  3. 瑪格麗特·羅斯. 100 Gb 乙太網路 (100GbE).
  4. 大衛‧格雷夫斯. Dell EMC 為開放式現代資料中心加倍投入 100 Gb 乙太網 // 2018。
  5. 瑪麗·布蘭斯科姆。 資料中心網路 100GbE 之年 // 2018。
  6. 賈里德·貝克。 企業資料中心的發展速度更快 // 2017。
  7. 湯姆克拉克。 設計儲存區域網路:實施光纖通道和 IP SAN 的實用參考。 2003年。572頁。
  8. 詹姆斯·奧萊利。 網路儲存:用於儲存公司資料的工具和技術 // 2017。280p。
  9. 詹姆斯·沙利文。 2017 年學生集群競賽,德克薩斯大學奧斯汀分校/德克薩斯州立大學團隊:在 Intel Skylake 和 NVIDIA V100 架構上重現 Tersoff 多體潛力的向量化 // 並行計算。第 79 卷,2018 年。第 30 頁。 35-XNUMX。
  10. 馬諾利斯凱特維尼斯。 下一代 Exascale 級系統:ExaNeSt 專案 // 微處理器和微系統。第 61 卷,2018 年。第 58 頁。 71-XNUMX。
  11. 哈里·蘇布拉莫尼。 乙太網路上的 RDMA:初步研究 // 分散式運算高效能互連研討會論文集。 2009年。
  12. 克里斯布羅克瑪。 使用軟體 UDP RDMA 在射電天文學中實現節能資料傳輸//未來一代電腦系統。第 79 卷,2018 年。第 215 頁。 224-XNUMX。

PS。 本文原刊於 “系統管理員”.

只有註冊用戶才能參與調查。 登入, 請。

為什麼大型資料中心開始集體轉向 100GbE?

  • 事實上,還沒有人開始搬家…

  • 因為這項技術已經成熟且變得更便宜

  • 因為 Juniper 和 Cisco 為 100GbE 交換器建立了 ASIC

  • 因為 Broadcom、Cavium 和 Mellanox Technologie 都添加了 100GbE 支持

  • 因為伺服器現在有 25 吉比特和 40 吉比特端口

  • 你的版本(寫在評論中)

12 位用戶投票。 15 名用戶棄權。

來源: www.habr.com

添加評論