IEEE P802.3ba ซึ่งเป็นมาตรฐานสำหรับการส่งข้อมูลบน 100 Gigabit Ethernet (100GbE) ได้รับการพัฒนาระหว่างปี 2007 ถึง 2010 [3] แต่เริ่มแพร่หลายในปี 2018 เท่านั้น [5] ทำไมในปี 2018 และไม่ก่อนหน้านี้? แล้วทำไมถึงออกมาเป็นฝูงในทันที? มีเหตุผลอย่างน้อยห้าประการสำหรับสิ่งนี้...

IEEE P802.3ba ได้รับการพัฒนาขึ้นเพื่อตอบสนองความต้องการของศูนย์ข้อมูลและจุดแลกเปลี่ยนการรับส่งข้อมูลอินเทอร์เน็ตเป็นหลัก (ระหว่างผู้ให้บริการอิสระ) เช่นเดียวกับเพื่อให้แน่ใจว่าการดำเนินงานบริการเว็บที่ใช้ทรัพยากรจำนวนมากไม่หยุดชะงัก เช่น พอร์ทัลที่มีเนื้อหาวิดีโอจำนวนมาก (เช่น YouTube) และสำหรับการประมวลผลประสิทธิภาพสูง [3] ผู้ใช้อินเทอร์เน็ตทั่วไปมีส่วนในการเปลี่ยนแปลงความต้องการแบนด์วิดท์: ผู้คนจำนวนมากมีกล้องดิจิทัล และผู้คนต้องการสตรีมเนื้อหาที่พวกเขาบันทึกผ่านอินเทอร์เน็ต ที่. ปริมาณเนื้อหาที่หมุนเวียนบนอินเทอร์เน็ตมีมากขึ้นเรื่อยๆ เมื่อเวลาผ่านไป ทั้งในระดับอาชีพและผู้บริโภค ในกรณีเหล่านี้ทั้งหมด เมื่อถ่ายโอนข้อมูลจากโดเมนหนึ่งไปยังอีกโดเมนหนึ่ง ปริมาณงานรวมของโหนดเครือข่ายหลักนั้นเกินความสามารถของพอร์ต 10GbE มานานแล้ว [1] นี่คือเหตุผลของการเกิดขึ้นของมาตรฐานใหม่: 100GbE
ศูนย์ข้อมูลขนาดใหญ่และผู้ให้บริการระบบคลาวด์กำลังใช้งาน 100GbE อยู่แล้ว และวางแผนที่จะค่อยๆ เปลี่ยนไปใช้ 200GbE และ 400GbE ในอีกไม่กี่ปีข้างหน้า ในเวลาเดียวกัน พวกเขากำลังดูความเร็วที่เกินเทราบิตอยู่แล้ว [6] แม้ว่าจะมีซัพพลายเออร์รายใหญ่บางรายที่เปลี่ยนไปใช้ 100GbE ในปีที่แล้วเท่านั้น (เช่น Microsoft Azure) ศูนย์ข้อมูลที่ใช้การประมวลผลประสิทธิภาพสูงสำหรับบริการทางการเงิน แพลตฟอร์มของรัฐบาล แพลตฟอร์มน้ำมันและก๊าซ และสาธารณูปโภค ก็เริ่มเปลี่ยนไปใช้ 100GbE เช่นกัน [5]
ในศูนย์ข้อมูลระดับองค์กร ความต้องการแบนด์วิดท์ค่อนข้างต่ำกว่า: เพียงไม่นานนี้ 10GbE ก็กลายเป็นสิ่งจำเป็นมากกว่าความหรูหราที่นี่ อย่างไรก็ตาม เนื่องจากอัตราปริมาณการใช้ข้อมูลเพิ่มขึ้นอย่างรวดเร็ว จึงเป็นที่น่าสงสัยว่า 10GbE จะอยู่ในศูนย์ข้อมูลขององค์กรเป็นเวลาอย่างน้อย 10 หรือ 5 ปี แต่เราจะเห็นการเปลี่ยนแปลงอย่างรวดเร็วเป็น 25GbE และการเปลี่ยนแปลงที่รวดเร็วยิ่งขึ้นไปยัง 100GbE [6] เนื่องจากตามที่นักวิเคราะห์ของ Intel ระบุไว้ ความหนาแน่นของการรับส่งข้อมูลภายในศูนย์ข้อมูลเพิ่มขึ้น 25% ต่อปี [5]
นักวิเคราะห์จาก Dell และ Hewlett Packard ระบุ [4] ว่าปี 2018 เป็นปีแห่ง 100GbE สำหรับศูนย์ข้อมูล ย้อนกลับไปในเดือนสิงหาคม 2018 การส่งมอบอุปกรณ์ 100GbE สูงเป็นสองเท่าของการส่งมอบตลอดทั้งปี 2017 และความเร็วของการจัดส่งยังคงเพิ่มขึ้นอย่างต่อเนื่องเนื่องจากศูนย์ข้อมูลเริ่มขยับออกจาก 40GbE เป็นจำนวนมาก คาดว่าภายในปี 2022 จะมีการจัดส่งพอร์ต 19,4GbE จำนวน 100 ล้านพอร์ตต่อปี (ในปี 2017 สำหรับการเปรียบเทียบ ตัวเลขนี้คือ 4,6 ล้านพอร์ต) [4] สำหรับค่าใช้จ่าย ในปี 2017 มีการใช้เงิน 100 พันล้านดอลลาร์ไปกับพอร์ต 7GbE และในปี 2020 ตามการคาดการณ์ จะใช้ไปประมาณ 20 หมื่นล้านดอลลาร์ (ดูรูปที่ 1) [1]

รูปที่ 1 สถิติและการคาดการณ์ความต้องการอุปกรณ์เครือข่าย
ทำไมตอนนี้? 100GbE ไม่ใช่เทคโนโลยีใหม่จริงๆ แล้วเหตุใดจึงมีกระแสนิยมมากมายในตอนนี้?
1) เพราะเทคโนโลยีนี้มีความเจริญและมีราคาถูกลง ในปี 2018 เราได้ก้าวล้ำหน้าเมื่อใช้แพลตฟอร์มที่มีพอร์ต 100 กิกะบิตในศูนย์ข้อมูลซึ่งคุ้มค่ากว่าการ "ซ้อน" แพลตฟอร์ม 10 กิกะบิตหลายๆ แพลตฟอร์ม ตัวอย่าง: Ciena 5170 (ดูรูปที่ 2) เป็นแพลตฟอร์มขนาดกะทัดรัดที่ให้ทรูพุตรวม 800GbE (4x100GbE, 40x10GbE) หากจำเป็นต้องใช้พอร์ต 10 กิกะบิตหลายพอร์ตเพื่อให้ปริมาณงานที่จำเป็น ค่าใช้จ่ายของฮาร์ดแวร์เพิ่มเติม พื้นที่เพิ่มเติม การใช้พลังงานส่วนเกิน การบำรุงรักษาอย่างต่อเนื่อง อะไหล่เพิ่มเติม และระบบระบายความร้อนเพิ่มเติม รวมกันแล้วค่อนข้างเป็นระเบียบเรียบร้อย [1] ตัวอย่างเช่น ผู้เชี่ยวชาญของฮิวเล็ตต์แพ็กการ์ด ซึ่งวิเคราะห์ประโยชน์ที่เป็นไปได้ของการเปลี่ยนจาก 10GbE เป็น 100GbE ได้ตัวเลขต่อไปนี้: ประสิทธิภาพที่สูงขึ้น (56%) ต้นทุนรวมลดลง (27%) การใช้พลังงานลดลง (31%) ลดความซับซ้อนของการเชื่อมต่อสายเคเบิล (38%) [5]

รูปที่ 2 Ciena 5170: ตัวอย่างแพลตฟอร์มที่มีพอร์ต 100 Gigabit
2) Juniper และ Cisco ได้สร้าง ASIC ของตัวเองสำหรับสวิตช์ 100GbE ในที่สุด [5] ซึ่งเป็นการยืนยันอย่างชัดเจนถึงความจริงที่ว่าเทคโนโลยี 100GbE นั้นมีความสมบูรณ์อย่างแท้จริง ความจริงก็คือการสร้างชิป ASIC นั้นคุ้มค่าก็ต่อเมื่อประการแรกตรรกะที่นำไปใช้กับชิปนั้นไม่ต้องการการเปลี่ยนแปลงในอนาคตอันใกล้และประการที่สองเมื่อมีการผลิตชิปที่เหมือนกันจำนวนมาก Juniper และ Cisco จะไม่ผลิต ASIC เหล่านี้หากไม่มั่นใจในความสมบูรณ์ของ 100GbE
3) เนื่องจาก Broadcom, Cavium และ Mellanox Technologie ได้เริ่มผลิตโปรเซสเซอร์ที่รองรับ 100GbE และโปรเซสเซอร์เหล่านี้ถูกใช้ในสวิตช์จากผู้ผลิตเช่น Dell, Hewlett Packard, Huawei Technologies, Lenovo Group เป็นต้น [5]
4) เนื่องจากเซิร์ฟเวอร์ที่อยู่ในชั้นวางเซิร์ฟเวอร์มีการติดตั้งอะแดปเตอร์เครือข่าย Intel รุ่นล่าสุดเพิ่มมากขึ้น (ดูรูปที่ 3) โดยมีพอร์ต 25 กิกะบิตสองพอร์ต และบางครั้งก็มีอะแดปเตอร์เครือข่ายแบบรวมที่มีพอร์ต 40 กิกะบิตสองพอร์ต (XXV710 และ XL710) {รูปที่ 3. Intel NIC ล่าสุด: XXV710 และ XL710}
5) เนื่องจากอุปกรณ์ 100GbE เข้ากันได้แบบย้อนหลัง ซึ่งช่วยให้ปรับใช้ได้ง่ายขึ้น: คุณจึงนำสายเคเบิลที่กำหนดเส้นทางแล้วกลับมาใช้ใหม่ได้ (เพียงเชื่อมต่อตัวรับส่งสัญญาณใหม่เข้ากับสายเคเบิลเหล่านั้น)
นอกจากนี้ ความพร้อมใช้งานของ 100GbE ยังเตรียมเราให้พร้อมสำหรับเทคโนโลยีใหม่ๆ เช่น “NVMe over Fabric” (เช่น Samsung Evo Pro 256 GB NVMe PCIe SSD ดูรูปที่ 4) [8, 10], “Storage Area Network” (SAN ) / “Software Defined Storage” (ดูรูปที่ 5) [7], RDMA [11] ซึ่งหากไม่มี 100GbE จะไม่สามารถบรรลุศักยภาพสูงสุดได้

รูปที่ 4 Samsung Evo Pro 256 GB NVMe PCIe SSD

รูปที่ 5. “เครือข่ายพื้นที่จัดเก็บข้อมูล” (SAN) / “พื้นที่เก็บข้อมูลที่กำหนดโดยซอฟต์แวร์”
สุดท้ายนี้ ในฐานะตัวอย่างที่แปลกใหม่ของความต้องการใช้งาน 100GbE และเทคโนโลยีความเร็วสูงที่เกี่ยวข้องในทางปฏิบัติ เราสามารถอ้างอิงระบบคลาวด์ทางวิทยาศาสตร์ของมหาวิทยาลัยเคมบริดจ์ (ดูรูปที่ 6) ซึ่งสร้างขึ้นบนพื้นฐานของ 100GbE (สเปกตรัม) สวิตช์อีเทอร์เน็ต SN2700) - เหนือสิ่งอื่นใด รับประกันการทำงานที่มีประสิทธิภาพของพื้นที่จัดเก็บดิสก์แบบกระจาย NexentaEdge SDS ซึ่งสามารถโอเวอร์โหลดเครือข่าย 10/40GbE ได้อย่างง่ายดาย [2] คลาวด์ทางวิทยาศาสตร์ที่มีประสิทธิภาพสูงดังกล่าวถูกนำมาใช้เพื่อแก้ไขปัญหาทางวิทยาศาสตร์ประยุกต์ที่หลากหลาย [9, 12] ตัวอย่างเช่น นักวิทยาศาสตร์การแพทย์ใช้คลาวด์ดังกล่าวเพื่อถอดรหัสจีโนมมนุษย์ และใช้ช่องทาง 100GbE เพื่อถ่ายโอนข้อมูลระหว่างกลุ่มวิจัยของมหาวิทยาลัย

รูปที่ 6 ส่วนของคลาวด์วิทยาศาสตร์ของมหาวิทยาลัยเคมบริดจ์
บรรณานุกรม
- จอห์น ฮอว์กินส์. // 2017.
- อามิต แคทซ์. // 2016.
- มาร์กาเร็ต โรส. .
- เดวิด เกรฟส์. // 2018.
- แมรี แบรนส์คอมบ์. // 2018.
- จาร์เรด เบเกอร์. // 2017.
- ทอม คลาร์ก. การออกแบบเครือข่ายพื้นที่จัดเก็บข้อมูล: ข้อมูลอ้างอิงเชิงปฏิบัติสำหรับการนำ Fibre Channel และ IP SAN ไปใช้ 2003. 572น.
- เจมส์ โอไรลีย์. ที่เก็บข้อมูลเครือข่าย: เครื่องมือและเทคโนโลยีสำหรับการจัดเก็บข้อมูลบริษัทของคุณ // 2017. 280p
- เจมส์ ซัลลิแวน. การแข่งขันคลัสเตอร์นักศึกษาปี 2017 ทีมมหาวิทยาลัยเท็กซัสที่มหาวิทยาลัยแห่งรัฐออสติน/เท็กซัส: การสร้างเวกเตอร์ของศักยภาพหลายตัวของ Tersoff บนสถาปัตยกรรม Intel Skylake และ NVIDIA V100 // การประมวลผลแบบขนาน v.79, 2018. หน้า. 30-35.
- มาโนลิส เคทเวนิส. รุ่นถัดไปของระบบระดับ Exascale: โครงการ ExaNeSt // ไมโครโปรเซสเซอร์และไมโครซิสเต็มส์ v.61, 2018. หน้า. 58-71.
- ฮารี สุปราโมนี. RDMA บนอีเธอร์เน็ต: การศึกษาเบื้องต้น // การดำเนินการของการประชุมเชิงปฏิบัติการเกี่ยวกับการเชื่อมต่อระหว่างกันประสิทธิภาพสูงสำหรับคอมพิวเตอร์แบบกระจาย 2009.
- คริส โบรเคมา. การถ่ายโอนข้อมูลอย่างประหยัดพลังงานในดาราศาสตร์วิทยุด้วยซอฟต์แวร์ UDP RDMA // ระบบคอมพิวเตอร์แห่งอนาคต v.79, 2018. หน้า. 215-224.
PS บทความนี้ถูกตีพิมพ์ครั้งแรกใน .
เฉพาะผู้ใช้ที่ลงทะเบียนเท่านั้นที่สามารถเข้าร่วมในการสำรวจได้ , โปรด.
เหตุใดศูนย์ข้อมูลขนาดใหญ่จึงเริ่มขยับไปที่ 100GbE
จริงๆ ยังไม่มีใครเริ่มขยับไปไหนเลย...
เพราะเทคโนโลยีนี้มีความเจริญและมีราคาถูกลง
เนื่องจาก Juniper และ Cisco ได้สร้าง ASIC สำหรับสวิตช์ 100GbE
เนื่องจาก Broadcom, Cavium และ Mellanox Technologie ได้เพิ่มการรองรับ 100GbE
เนื่องจากขณะนี้เซิร์ฟเวอร์มีพอร์ต 25 และ 40 กิกะบิต
รุ่นของคุณ (เขียนในความคิดเห็น)
ผู้ใช้ 12 คนโหวต ผู้ใช้ 15 รายงดออกเสียง
ที่มา: will.com
