IEEE P802.3ba, תקן להעברת נתונים מעל 100 Gigabit Ethernet (100GbE), פותח בין 2007 ל-2010 [3], אך הפך לנפוץ רק בשנת 2018 [5]. למה ב-2018 ולא קודם? ולמה מיד בהמוניהם? יש לכך לפחות חמש סיבות...

IEEE P802.3ba פותח בעיקר כדי לענות על הצרכים של מרכזי נתונים וצרכי נקודות החלפת תעבורת אינטרנט (בין מפעילים עצמאיים); כמו גם להבטיח פעילות רציפה של שירותי אינטרנט עתירי משאבים, כגון פורטלים עם כמות גדולה של תוכן וידאו (לדוגמה, יוטיוב); ולמחשוב בעל ביצועים גבוהים. [3] משתמשי אינטרנט רגילים תורמים גם הם לשינוי בדרישות רוחב הפס: לאנשים רבים יש מצלמות דיגיטליות, ואנשים רוצים להזרים את התוכן שהם מצלמים דרך האינטרנט. זֶה. נפח התוכן שמסתובב באינטרנט הולך וגדל עם הזמן. הן ברמה המקצועית והן ברמה הצרכנית. בכל המקרים הללו, בעת העברת נתונים מתחום אחד למשנהו, התפוקה הכוללת של צמתי רשת מרכזיים חרגה מזמן מהיכולות של יציאות 10GbE. [1] זו הסיבה להופעתו של תקן חדש: 100GbE.
מרכזי נתונים גדולים וספקי שירותי ענן כבר משתמשים באופן פעיל ב-100GbE ומתכננים לעבור בהדרגה ל-200GbE ו-400GbE בעוד כמה שנים. במקביל, הם כבר מסתכלים על מהירויות העולות על טרה-ביט. [6] למרות שיש כמה ספקים גדולים שעוברים ל-100GbE רק בשנה שעברה (לדוגמה, Microsoft Azure). מרכזי נתונים המריצים מחשוב בעל ביצועים גבוהים עבור שירותים פיננסיים, פלטפורמות ממשלתיות, פלטפורמות נפט וגז ושירותים, החלו גם הם לעבור ל-100GbE. [5]
במרכזי נתונים ארגוניים, הביקוש לרוחב פס נמוך במקצת: רק לאחרונה 10GbE הפך להיות כאן הכרח ולא מותרות. עם זאת, ככל שקצב צריכת התעבורה גדל יותר ויותר מהר, ספק אם 10GbE יחיו במרכזי נתונים ארגוניים לפחות 10 או אפילו 5 שנים. במקום זאת, נראה מעבר מהיר ל-25GbE ומעבר מהיר עוד יותר ל-100GbE. [6] מכיוון שכפי שמציינים אנליסטים של אינטל, עוצמת התעבורה בתוך מרכז הנתונים עולה מדי שנה ב-25%. [5]
אנליסטים מ-Dell ו-Hewlett Packard מצהירים [4] ש-2018 היא השנה של 100GbE עבור מרכזי נתונים. עוד באוגוסט 2018, משלוחים של ציוד 100GbE היו גבוהים פי שניים מהמשלוחים במשך כל שנת 2017. וקצב המשלוחים ממשיך להאיץ כאשר מרכזי נתונים מתחילים להתרחק מ-40GbE בהמוניהם. צפוי שעד 2022 יישלחו 19,4 מיליון יציאות 100GbE בשנה (בשנת 2017, לשם השוואה, נתון זה עמד על 4,6 מיליון). [4] באשר לעלויות, בשנת 2017 הוצאו 100 מיליארד דולר על יציאות 7GbE, ובשנת 2020, על פי התחזיות, יושקעו כ-20 מיליארד דולר (ראה איור 1). [1]

איור 1. סטטיסטיקה ותחזיות של ביקוש לציוד רשת
למה עכשיו? 100GbE היא לא בדיוק טכנולוגיה חדשה, אז למה יש כל כך הרבה הייפ סביב זה עכשיו?
1) כי הטכנולוגיה הזו התבגרה והפכה לזולה יותר. זה היה ב-2018 שחצינו את הגבול כאשר השימוש בפלטפורמות עם יציאות של 100 גיגה-ביט במרכז הנתונים הפך לחסכוני יותר מאשר "ערימה" של כמה פלטפורמות של 10 ג'יגה-ביט. דוגמה: Ciena 5170 (ראה איור 2) היא פלטפורמה קומפקטית המספקת תפוקה מצרפית של 800GbE (4x100GbE, 40x10GbE). אם נדרשות יציאות מרובות של 10 ג'יגה-ביט כדי לספק את התפוקה הדרושה, אזי העלויות של חומרה נוספת, שטח נוסף, צריכת חשמל עודפת, תחזוקה שוטפת, חלקי חילוף נוספים ומערכות קירור נוספות מסתכמות בסכום די מסודר. [1] לדוגמה, מומחי Hewlett Packard, שניתחו את היתרונות הפוטנציאליים של מעבר מ-10GbE ל-100GbE, הגיעו לנתונים הבאים: ביצועים גבוהים יותר (56%), עלויות כוללות נמוכות יותר (27%), צריכת חשמל נמוכה יותר (31%), פישוט חיבורי כבל (ב-38%). [5]

איור 2. Ciena 5170: פלטפורמה לדוגמה עם 100 יציאות Gigabit
2) ג'וניפר וסיסקו סוף סוף יצרו ASIC משלהם עבור מתגי 100GbE. [5] וזה אישור רהוט לעובדה שטכנולוגיית 100GbE היא באמת בשלה. העובדה היא שחסכוני ליצור שבבי ASIC רק כאשר ראשית, ההיגיון המיושם עליהם אינו דורש שינויים בעתיד הנראה לעין, ושנית, כאשר מיוצרים מספר רב של שבבים זהים. ג'וניפר וסיסקו לא ייצרו את ה-ASICs הללו מבלי להיות בטוחים בבשלות של 100GbE.
3) מכיוון שברודקום, קאוויום ו-Mellanox Technologie החלו לייצר מעבדים עם תמיכה ב-100GbE, ומעבדים אלו כבר נמצאים בשימוש במתגים של יצרנים כמו Dell, Hewlett Packard, Huawei Technologies, Lenovo Group וכו'. [5]
4) מכיוון ששרתים הממוקמים במדפי שרתים מצוידים יותר ויותר במתאמי הרשת העדכניים ביותר של אינטל (ראה איור 3), עם שתי יציאות של 25 ג'יגה-ביט, ולפעמים אפילו מתאמי רשת מתכנסים עם שתי יציאות של 40 ג'יגה-ביט (XXV710 ו-XL710). {איור 3. ה-NIC העדכניים ביותר של Intel: XXV710 ו-XL710}
5) מכיוון שציוד 100GbE תואם לאחור, מה שמפשט את הפריסה: אתה יכול לעשות שימוש חוזר בכבלים שכבר מנותבים (פשוט לחבר אליהם מקלט משדר חדש).
בנוסף, הזמינות של 100GbE מכינה אותנו לטכנולוגיות חדשות כגון "NVMe over Fabrics" (לדוגמה, Samsung Evo Pro 256 GB NVMe PCIe SSD; ראה איור 4) [8, 10], "Storage Area Network" (SAN ) / "אחסון בהגדרת תוכנה" (ראה איור 5) [7], RDMA [11], אשר ללא 100GbE לא יכלו לממש את מלוא הפוטנציאל שלהם.

איור 4. Samsung Evo Pro 256 GB NVMe PCIe SSD

איור 5. "רשת שטח אחסון" (SAN) / "אחסון בהגדרת תוכנה"
לבסוף, כדוגמה אקזוטית לדרישה המעשית לשימוש ב-100GbE וטכנולוגיות מהירות גבוהות נלוות, אנו יכולים לצטט את הענן המדעי של אוניברסיטת קיימברידג' (ראה איור 6), שבנוי על בסיס 100GbE (Spectrum) מתגי Ethernet SN2700) - על מנת, בין היתר, להבטיח תפעול יעיל של אחסון דיסק מבוזר NexentaEdge SDS, שיכול בקלות להעמיס על רשת 10/40GbE. [2] עננים מדעיים בעלי ביצועים גבוהים כאלה נפרסים כדי לפתור מגוון רחב של בעיות מדעיות יישומיות [9, 12]. לדוגמה, מדענים רפואיים משתמשים בעננים כאלה כדי לפענח את הגנום האנושי, וערוצי 100GbE משמשים להעברת מידע בין קבוצות מחקר באוניברסיטאות.

איור 6. קטע של ענן המדע של אוניברסיטת קיימברידג'
ביבליוגרפיה
- ג'ון הוקינס. // 2017.
- עמית כץ. // 2016.
- מרגרט רוז. .
- דיוויד גרייבס. // 2018.
- מרי ברנסקום. // 2018.
- ג'ארד בייקר. // 2017.
- טום קלארק. עיצוב רשתות שטח אחסון: התייחסות מעשית להטמעת ערוצי סיבים ו-IP SAN. 2003. 572 עמ'.
- ג'יימס אוריילי. אחסון רשת: כלים וטכנולוגיות לאחסון נתוני החברה שלך // 2017. 280p.
- ג'יימס סאליבן. תחרות אשכול סטודנטים 2017, אוניברסיטת צוות של טקסס באוניברסיטת אוסטין/טקסס סטייט: שחזור וקטוריזציה של פוטנציאל מרובי הגוף של Tersoff בארכיטקטורות Intel Skylake ו-NVIDIA V100 // מחשוב מקביל. v.79, 2018. עמ'. 30-35.
- מנוליס קטוניס. הדור הבא של מערכות מסוג Exascale: פרויקט ExaNeSt // מיקרו-מעבדים ומיקרו-מערכות. v.61, 2018. עמ'. 58-71.
- הרי סוברמוני. RDMA over Ethernet: A Preliminary Study // הליכי הסדנה בנושא חיבורים בעלי ביצועים גבוהים עבור מחשוב מבוזר. 2009.
- כריס ברוקמה. העברת נתונים חסכונית באנרגיה באסטרונומיה רדיו עם תוכנה UDP RDMA // מערכות מחשב מהדור העתידי. v.79, 2018. עמ'. 215-224.
PS. מאמר זה פורסם במקור ב .
רק משתמשים רשומים יכולים להשתתף בסקר. בבקשה.
מדוע מרכזי נתונים גדולים החלו לעבור בהמוניהם ל-100GbE?
למעשה, אף אחד עדיין לא התחיל לזוז לשום מקום...
כי הטכנולוגיה הזו התבגרה והפכה לזולה יותר
מכיוון שג'וניפר וסיסקו יצרו ASIC עבור מתגי 100GbE
כי Broadcom, Cavium ו-Mellanox Technologie הוסיפו תמיכה ב-100GbE
מכיוון שלשרתים יש כעת יציאות של 25 ו-40 גיגה-ביט
הגרסה שלך (כתוב בתגובות)
12 משתמשים הצביעו. 15 משתמשים נמנעו.
מקור: www.habr.com
