IEEE P802.3ba، استانداردی برای انتقال داده از طریق اترنت 100 گیگابیتی (100 گیگابیت)، بین سال های 2007 تا 2010 توسعه یافت [3]، اما تنها در سال 2018 گسترش یافت [5]. چرا در سال 2018 و نه قبل از آن؟ و چرا بلافاصله دسته جمعی؟ حداقل پنج دلیل برای این وجود دارد ...
IEEE P802.3ba اساساً برای پاسخگویی به نیازهای مراکز داده و نیازهای نقاط تبادل ترافیک اینترنتی (بین اپراتورهای مستقل) توسعه یافته است. و همچنین برای اطمینان از عملکرد بی وقفه سرویس های وب با منابع فشرده، مانند پورتال هایی با مقدار زیادی محتوای ویدیویی (به عنوان مثال، یوتیوب). و برای محاسبات با کارایی بالا. [3] کاربران عادی اینترنت نیز به تغییر تقاضای پهنای باند کمک میکنند: بسیاری از مردم دوربینهای دیجیتال دارند و مردم میخواهند محتوایی را که ضبط میکنند از طریق اینترنت پخش کنند. که حجم محتوایی که در اینترنت در گردش است با گذشت زمان بیشتر و بیشتر می شود. هم در سطح حرفه ای و هم در سطح مصرف کننده. در تمام این موارد، هنگام انتقال داده ها از یک دامنه به دامنه دیگر، کل توان عملیاتی گره های شبکه کلیدی برای مدت طولانی از قابلیت پورت های 10GbE فراتر رفته است. [1] این دلیل ظهور یک استاندارد جدید است: 100GbE.
مراکز داده بزرگ و ارائه دهندگان خدمات ابری در حال حاضر فعالانه از 100GbE استفاده می کنند و قصد دارند تا چند سال دیگر به تدریج به 200GbE و 400GbE بروند. در همان زمان، آنها در حال حاضر به سرعت های بیش از ترابیت نگاه می کنند. [6] اگرچه برخی از تامین کنندگان بزرگ وجود دارند که تنها در سال گذشته به سمت 100 گیگابایت حرکت می کنند (به عنوان مثال، Microsoft Azure). مراکز داده ای که محاسبات با کارایی بالا را برای خدمات مالی، پلتفرم های دولتی، پلتفرم های نفت و گاز و تاسیسات اجرا می کنند نیز شروع به انتقال به 100GbE کرده اند. [5]
در مراکز داده سازمانی، تقاضا برای پهنای باند تا حدودی کمتر است: اخیراً 10GbE در اینجا به جای تجملات به یک ضرورت تبدیل شده است. با این حال، از آنجایی که میزان مصرف ترافیک با سرعت بیشتری رشد می کند، تردید وجود دارد که 10GbE حداقل برای 10 یا حتی 5 سال در مراکز داده سازمانی زندگی کند. در عوض، ما شاهد حرکت سریع به 25 گیگابیت و حتی حرکت سریع تر به 100 گیگابیت خواهیم بود. [6] زیرا، همانطور که تحلیلگران اینتل خاطرنشان می کنند، شدت ترافیک در داخل مرکز داده سالانه 25٪ افزایش می یابد. [5]
تحلیلگران Dell و Hewlett Packard [4] بیان می کنند که سال 2018 سال 100 گیگابایت برای مراکز داده است. در آگوست 2018، تحویل تجهیزات 100 گیگابایتی دو برابر تحویل کل سال 2017 بود. و سرعت محموله ها همچنان به سرعت افزایش می یابد زیرا مراکز داده شروع به دور شدن از 40 گیگابیت انبوه می کنند. پیش بینی می شود تا سال 2022، سالانه 19,4 میلیون پورت 100GbE ارسال شود (در سال 2017، برای مقایسه، این رقم 4,6 میلیون بود). [4] در مورد هزینهها، در سال 2017، 100 میلیارد دلار برای پورتهای 7GbE هزینه شد و در سال 2020، طبق پیشبینیها، حدود 20 میلیارد دلار هزینه خواهد شد (شکل 1 را ببینید). [1]
شکل 1. آمار و پیش بینی تقاضا برای تجهیزات شبکه
چرا حالا؟ 100GbE دقیقاً یک فناوری جدید نیست، پس چرا اکنون این همه هیاهو در اطراف آن وجود دارد؟
1) زیرا این فناوری بالغ شده و ارزان شده است. در سال 2018 بود که وقتی استفاده از پلتفرمهایی با پورتهای 100 گیگابیتی در مرکز داده مقرونبهصرفهتر از «انباشته کردن» چندین پلتفرم 10 گیگابیتی بود، از مرز عبور کردیم. مثال: Ciena 5170 (شکل 2 را ببینید) یک پلتفرم فشرده است که توان عملیاتی 800GbE (4x100GbE, 40x10GbE) را ارائه می دهد. اگر چندین پورت 10 گیگابیتی برای ارائه توان عملیاتی لازم مورد نیاز باشد، هزینههای سختافزار اضافی، فضای اضافی، مصرف انرژی اضافی، تعمیر و نگهداری مداوم، قطعات یدکی اضافی و سیستمهای خنککننده اضافی به مبلغ بسیار منظمی میرسند. [1] به عنوان مثال، متخصصان هیولت پاکارد، با تجزیه و تحلیل مزایای بالقوه انتقال از 10GbE به 100GbE، به ارقام زیر رسیدند: عملکرد بالاتر (56%)، هزینه کل کمتر (27%)، مصرف انرژی کمتر (31%)، اتصالات کابل ساده (38٪). [5]
شکل 2. Ciena 5170: پلتفرم نمونه با 100 پورت گیگابیتی
2) Juniper و Cisco سرانجام ASIC های خود را برای سوئیچ های 100GbE ایجاد کردند. [5] که تأییدی گویا بر این واقعیت است که فناوری 100GbE واقعاً بالغ است. واقعیت این است که ایجاد تراشههای ASIC تنها زمانی مقرون به صرفه است که اولاً، منطق پیادهسازی شده روی آنها نیازی به تغییرات در آینده قابل پیشبینی نداشته باشد، و ثانیاً، زمانی که تعداد زیادی تراشههای یکسان تولید میشوند. Juniper و Cisco این ASIC ها را بدون اطمینان از بلوغ 100GbE تولید نمی کنند.
3) زیرا Broadcom، Cavium و Mellanox Technologie شروع به تولید پردازنده هایی با پشتیبانی 100GbE کرده اند و این پردازنده ها در حال حاضر در سوئیچ های تولید کنندگانی مانند Dell، Hewlett Packard، Huawei Technologies، Lenovo Group و غیره استفاده می شوند [5]
4) زیرا سرورهای مستقر در رک های سرور به طور فزاینده ای به آخرین آداپتورهای شبکه اینتل مجهز می شوند (شکل 3 را ببینید)، با دو پورت 25 گیگابیتی، و گاهی اوقات حتی آداپتورهای شبکه همگرا با دو پورت 40 گیگابیتی (XXV710 و XL710). {شکل 3. آخرین کارت های کارت شبکه اینتل: XXV710 و XL710}
5) از آنجایی که تجهیزات 100 گیگابایتی سازگار با عقب هستند، که استقرار را ساده میکند: میتوانید از کابلهای از قبل مسیریابی شده استفاده مجدد کنید (فقط یک فرستنده گیرنده جدید را به آنها وصل کنید).
علاوه بر این، در دسترس بودن 100GbE ما را برای فناوریهای جدیدی مانند «NVMe over Fabrics» آماده میکند (برای مثال، Samsung Evo Pro 256 گیگابایت NVMe PCIe SSD؛ به شکل 4 مراجعه کنید) [8، 10]، «شبکه فضای ذخیرهسازی» (SAN) ) / "Storage Defined Storage" (نگاه کنید به شکل 5) [7]، RDMA [11]، که بدون 100GbE نمی تواند پتانسیل کامل خود را تحقق بخشد.
شکل 4. Samsung Evo Pro 256 گیگابایت NVMe PCIe SSD
شکل 5. "شبکه فضای ذخیره سازی" (SAN) / "ذخیره سازی تعریف شده نرم افزار"
در نهایت، به عنوان یک مثال عجیب از تقاضای عملی برای استفاده از 100GbE و فناوری های پرسرعت مرتبط، می توان به ابر علمی دانشگاه کمبریج اشاره کرد (نگاه کنید به شکل 6)، که بر اساس 100GbE (Spectrum) ساخته شده است. سوئیچ های اترنت SN2700) - به منظور اطمینان از عملکرد کارآمد ذخیره سازی دیسک توزیع شده NexentaEdge SDS که به راحتی می تواند شبکه 10/40GbE را اضافه بار کند. [2] چنین ابرهای علمی با کارایی بالا برای حل طیف گسترده ای از مشکلات علمی کاربردی استفاده می شوند [9، 12]. به عنوان مثال، دانشمندان علوم پزشکی از چنین ابرهایی برای رمزگشایی ژنوم انسان استفاده می کنند و کانال های 100GbE برای انتقال اطلاعات بین گروه های تحقیقاتی دانشگاه استفاده می شود.
جرد بیکر.حرکت سریعتر در مرکز داده سازمانی // 2017.
تام کلارک. طراحی شبکههای فضای ذخیرهسازی: مرجعی کاربردی برای پیادهسازی کانال فیبر و IP SAN. 2003. 572 ص.
جیمز اوریلی. ذخیرهسازی شبکه: ابزارها و فناوریهای ذخیره دادههای شرکت شما // 2017. 280p.
جیمز سالیوان. رقابت کلاستر دانشجویی 2017، دانشگاه تیم تگزاس در آستین/دانشگاه ایالتی تگزاس: بازتولید برداری از پتانسیل چند بدنه Tersoff در معماریهای Skylake اینتل و NVIDIA V100 // محاسبات موازی. v.79, 2018. pp. 30-35.
مانولیس کاتیونیس. نسل بعدی سیستمهای کلاس Exascale: پروژه ExaNeSt // ریزپردازندهها و میکروسیستمها. v.61, 2018. pp. 58-71.
هاری سوبرامونی. RDMA از طریق اترنت: یک مطالعه مقدماتی // مجموعه مقالات کارگاه در مورد اتصالات با کارایی بالا برای محاسبات توزیع شده. 2009.
کریس بروکما. انتقال داده های کم مصرف در نجوم رادیویی با نرم افزار UDP RDMA // سیستم های کامپیوتری نسل آینده. v.79, 2018. pp. 215-224.