100GbE: luho o mahalagang pangangailangan?

Ang IEEE P802.3ba, isang pamantayan para sa pagpapadala ng data na higit sa 100 Gigabit Ethernet (100GbE), ay binuo sa pagitan ng 2007 at 2010 [3], ngunit naging laganap lamang noong 2018 [5]. Bakit sa 2018 at hindi mas maaga? At bakit agad-agad? Mayroong hindi bababa sa limang dahilan para dito...

100GbE: luho o mahalagang pangangailangan?

Ang IEEE P802.3ba ay pangunahing binuo upang matugunan ang mga pangangailangan ng mga sentro ng data at ang mga pangangailangan ng mga palitan ng trapiko sa Internet (sa pagitan ng mga independiyenteng operator); gayundin upang matiyak ang walang patid na operasyon ng mga serbisyo sa web na masinsinang mapagkukunan, tulad ng mga portal na may malaking halaga ng nilalamang video (halimbawa, YouTube); at para sa high-performance computing. [3] Ang mga ordinaryong gumagamit ng Internet ay nag-aambag din sa pagbabago ng mga hinihingi ng bandwidth: Maraming tao ang may mga digital camera, at gustong i-stream ng mga tao ang nilalamang nakukuha nila sa Internet. yun. Ang dami ng nilalaman na nagpapalipat-lipat sa Internet ay nagiging mas malaki at mas malaki sa paglipas ng panahon. Parehong sa antas ng propesyonal at consumer. Sa lahat ng mga kasong ito, kapag naglilipat ng data mula sa isang domain patungo sa isa pa, ang kabuuang throughput ng mga pangunahing node ng network ay matagal nang lumampas sa mga kakayahan ng 10GbE port. [1] Ito ang dahilan ng paglitaw ng isang bagong pamantayan: 100GbE.

Ang malalaking data center at cloud service provider ay aktibong gumagamit na ng 100GbE, at planong unti-unting lumipat sa 200GbE at 400GbE sa loob ng ilang taon. Kasabay nito, tinitingnan na nila ang mga bilis na lumalampas sa terabit. [6] Bagama't may ilang malalaking supplier na lumilipat sa 100GbE noong nakaraang taon lamang (halimbawa, Microsoft Azure). Nagsimula na ring lumipat sa 100GbE ang mga data center na nagpapatakbo ng high-performance computing para sa mga serbisyong pinansyal, mga platform ng gobyerno, mga platform ng langis at gas at mga utility. [5]

Sa mga sentro ng data ng enterprise, ang pangangailangan para sa bandwidth ay medyo mas mababa: kamakailan lamang ay naging isang pangangailangan ang 10GbE sa halip na isang luho dito. Gayunpaman, habang ang rate ng pagkonsumo ng trapiko ay lumalaki nang higit at mas mabilis, ito ay nagdududa na ang 10GbE ay mabubuhay sa mga sentro ng data ng enterprise nang hindi bababa sa 10 o kahit na 5 taon. Sa halip, makikita natin ang isang mabilis na paglipat sa 25GbE at isang mas mabilis na paglipat sa 100GbE. [6] Dahil, gaya ng tala ng mga analyst ng Intel, ang intensity ng trapiko sa loob ng data center ay tumataas taun-taon ng 25%. [5]

Sinabi ng mga analyst mula sa Dell at Hewlett Packard [4] na ang 2018 ay ang taon ng 100GbE para sa mga data center. Noong Agosto 2018, ang mga paghahatid ng 100GbE na kagamitan ay dalawang beses na mas mataas kaysa sa mga paghahatid para sa buong 2017 taon. At ang bilis ng mga pagpapadala ay patuloy na bumibilis habang ang mga data center ay nagsisimulang lumayo sa 40GbE nang maramihan. Inaasahan na sa 2022, 19,4 milyong 100GbE port ang ipapadala taun-taon (sa 2017, bilang paghahambing, ang bilang na ito ay 4,6 milyon). [4] Tungkol sa mga gastos, noong 2017 $100 bilyon ang ginastos sa 7GbE port, at sa 2020, ayon sa mga pagtataya, mga $20 bilyon ang gagastusin (tingnan ang Fig. 1). [1]

100GbE: luho o mahalagang pangangailangan?
Figure 1. Mga istatistika at pagtataya ng demand para sa kagamitan sa network

Bakit ngayon? Ang 100GbE ay hindi eksaktong bagong teknolohiya, kaya bakit napakaraming hype sa paligid nito ngayon?

1) Dahil ang teknolohiyang ito ay nag-mature at naging mas mura. Noong 2018 kami ay tumawid sa linya nang gumamit ng mga platform na may 100-Gigabit port sa data center ay naging mas cost-effective kaysa sa "pag-stack" ng ilang 10-Gigabit na platform. Halimbawa: Ang Ciena 5170 (tingnan ang Larawan 2) ay isang compact na platform na nagbibigay ng pinagsama-samang throughput na 800GbE (4x100GbE, 40x10GbE). Kung maraming 10-Gigabit port ang kinakailangan upang magbigay ng kinakailangang throughput, kung gayon ang mga gastos ng karagdagang hardware, karagdagang espasyo, labis na pagkonsumo ng kuryente, patuloy na pagpapanatili, karagdagang mga ekstrang bahagi at karagdagang mga sistema ng paglamig ay nagdaragdag sa isang medyo maayos na kabuuan. [1] Halimbawa, ang mga espesyalista sa Hewlett Packard, na sinusuri ang mga potensyal na benepisyo ng paglipat mula sa 10GbE hanggang 100GbE, ay dumating sa mga sumusunod na numero: mas mataas na pagganap (56%), mas mababang kabuuang gastos (27%), mas mababang paggamit ng kuryente (31%), pagpapasimple ng mga koneksyon sa cable (sa pamamagitan ng 38%). [5]

100GbE: luho o mahalagang pangangailangan?
Figure 2. Ciena 5170: halimbawang platform na may 100 Gigabit port

2) Ang Juniper at Cisco ay nakagawa na ng sarili nilang mga ASIC para sa 100GbE switch. [5] Na kung saan ay mahusay na kumpirmasyon ng katotohanan na ang 100GbE na teknolohiya ay tunay na mature. Ang katotohanan ay ito ay cost-effective na lumikha ng ASIC chips lamang kapag, una, ang lohika na ipinatupad sa mga ito ay hindi nangangailangan ng mga pagbabago sa nakikinita na hinaharap, at pangalawa, kapag ang isang malaking bilang ng mga kaparehong chips ay ginawa. Ang Juniper at Cisco ay hindi gagawa ng mga ASIC na ito nang hindi kumpiyansa sa kapanahunan ng 100GbE.

3) Dahil ang Broadcom, Cavium, at Mellanox Technologie ay nagsimulang gumawa ng mga processor na may 100GbE na suporta, at ang mga processor na ito ay ginagamit na sa mga switch mula sa mga manufacturer gaya ng Dell, Hewlett Packard, Huawei Technologies, Lenovo Group, atbp. [5]

4) Dahil ang mga server na nakalagay sa mga server rack ay lalong nilagyan ng pinakabagong Intel network adapters (tingnan ang Figure 3), na may dalawang 25-Gigabit port, at kung minsan kahit na converged network adapters na may dalawang 40-Gigabit port (XXV710 at XL710) . {Figure 3. Mga pinakabagong Intel NIC: XXV710 at XL710}

5) Dahil backward compatible ang 100GbE equipment, na nagpapasimple sa deployment: maaari mong gamitin muli ang mga naka-routing na cable (magkonekta lang ng bagong transceiver sa kanila).

Bilang karagdagan, ang pagkakaroon ng 100GbE ay naghahanda sa amin para sa mga bagong teknolohiya tulad ng "NVMe over Fabrics" (halimbawa, Samsung Evo Pro 256 GB NVMe PCIe SSD; tingnan ang Fig. 4) [8, 10], "Storage Area Network" (SAN ) / β€œSoftware Defined Storage” (tingnan ang Fig. 5) [7], RDMA [11], na kung walang 100GbE ay hindi makakamit ang kanilang buong potensyal.

100GbE: luho o mahalagang pangangailangan?
Larawan 4. Samsung Evo Pro 256 GB NVMe PCIe SSD

100GbE: luho o mahalagang pangangailangan?
Figure 5. "Storage Area Network" (SAN) / "Software Defined Storage"

Sa wakas, bilang isang kakaibang halimbawa ng praktikal na pangangailangan para sa paggamit ng 100GbE at mga kaugnay na high-speed na teknolohiya, maaari nating banggitin ang siyentipikong ulap ng Unibersidad ng Cambridge (tingnan ang Fig. 6), na binuo batay sa 100GbE (Spectrum SN2700 Ethernet switch) - upang, bukod sa iba pang mga bagay, tiyakin ang mahusay na operasyon ng NexentaEdge SDS distributed disk storage, na madaling mag-overload sa isang 10/40GbE network. [2] Ang ganitong mataas na pagganap na mga pang-agham na ulap ay ipinakalat upang malutas ang isang malawak na iba't ibang mga inilapat na pang-agham na problema [9, 12]. Halimbawa, ginagamit ng mga medikal na siyentipiko ang gayong mga ulap upang matukoy ang genome ng tao, at ang 100GbE na mga channel ay ginagamit upang maglipat ng impormasyon sa pagitan ng mga pangkat ng pananaliksik sa unibersidad.

100GbE: luho o mahalagang pangangailangan?
Figure 6. Fragment ng University of Cambridge science cloud

Bibliograpiya

  1. John Hawkins. 100GbE: Mas Malapit sa Edge, Mas Malapit sa Reality // 2017.
  2. Amit Katz. 100GbE Switches – Nagawa Mo Na Ba Ang Math? // 2016.
  3. Margaret Rose. 100 Gigabit Ethernet (100GbE).
  4. David Graves. Nagdodoble ang Dell EMC sa 100 Gigabit Ethernet para sa Open, Modern Data Center // 2018.
  5. Mary Brascombe. Ang Taon ng 100GbE sa Data Center Networks // 2018.
  6. Jarred Baker. Mas Mabilis na Gumagalaw sa Enterprise Data Center // 2017.
  7. Tom Clark. Pagdidisenyo ng Mga Storage Area Network: Isang Praktikal na Sanggunian para sa Pagpapatupad ng Fiber Channel at mga IP SAN. 2003. 572p.
  8. James O'Reilly. Network Storage: Mga Tool at Teknolohiya para sa Pag-iimbak ng Data ng Iyong Kumpanya // 2017. 280p.
  9. James Sullivan. Student cluster competition 2017, Team University of Texas sa Austin/Texas State University: Reproducing vectorization ng Tersoff multi-body potential sa Intel Skylake at NVIDIA V100 architectures // Parallel Computing. v.79, 2018. pp. 30-35.
  10. Manolis Katevenis. Ang susunod na Henerasyon ng Exascale-class System: ang ExaNeSt Project // Microprocessors at Microsystems. v.61, 2018. pp. 58-71.
  11. Hari Subramoni. RDMA over Ethernet: A Preliminary Study // Proceedings of the Workshop on High Performance Interconnects for Distributed Computing. 2009.
  12. Chris Broekema. Energy-Efficient Data Transfers sa Radio Astronomy na may Software UDP RDMA // Future Generation Computer System. v.79, 2018. pp. 215-224.

PS. Ang artikulong ito ay orihinal na nai-publish sa "System administrator".

Ang mga rehistradong user lamang ang maaaring lumahok sa survey. Mag-sign in, pakiusap

Bakit nagsimulang lumipat ang malalaking data center sa 100GbE?

  • Sa totoo lang, wala pang nagsisimulang gumalaw kahit saan...

  • Dahil ang teknolohiyang ito ay nag-mature at naging mas mura

  • Dahil ang Juniper at Cisco ay lumikha ng mga ASIC para sa 100GbE switch

  • Dahil ang Broadcom, Cavium, at Mellanox Technologie ay nagdagdag ng 100GbE na suporta

  • Dahil ang mga server ay mayroon na ngayong 25- at 40-gigabit port

  • Ang iyong bersyon (sumulat sa mga komento)

12 user ang bumoto. 15 na user ang umiwas.

Pinagmulan: www.habr.com

Magdagdag ng komento