100GbE: πολυτέλεια ή απαραίτητη ανάγκη;

Το IEEE P802.3ba, ένα πρότυπο για τη μετάδοση δεδομένων μέσω 100 Gigabit Ethernet (100 GbE), αναπτύχθηκε μεταξύ 2007 και 2010 [3], αλλά έγινε ευρέως διαδεδομένο μόλις το 2018 [5]. Γιατί το 2018 και όχι νωρίτερα; Και γιατί αμέσως κατά σωρό; Υπάρχουν τουλάχιστον πέντε λόγοι για αυτό…

100GbE: πολυτέλεια ή απαραίτητη ανάγκη;

Το IEEE P802.3ba αναπτύχθηκε κυρίως για να καλύψει τις ανάγκες των κέντρων δεδομένων και τις ανάγκες των σημείων ανταλλαγής κίνησης στο Διαδίκτυο (μεταξύ ανεξάρτητων φορέων). καθώς και για τη διασφάλιση της αδιάλειπτης λειτουργίας υπηρεσιών ιστού που απαιτούν πόρους, όπως πύλες με μεγάλη ποσότητα περιεχομένου βίντεο (για παράδειγμα, YouTube). και για υπολογιστές υψηλής απόδοσης. [3] Οι απλοί χρήστες του Διαδικτύου συμβάλλουν επίσης στην αλλαγή των απαιτήσεων εύρους ζώνης: Πολλοί άνθρωποι διαθέτουν ψηφιακές φωτογραφικές μηχανές και οι άνθρωποι θέλουν να μεταδώσουν το περιεχόμενο που καταγράφουν μέσω του Διαδικτύου. Οτι. Ο όγκος του περιεχομένου που κυκλοφορεί στο Διαδίκτυο γίνεται όλο και μεγαλύτερος με την πάροδο του χρόνου. Τόσο σε επαγγελματικό όσο και σε καταναλωτικό επίπεδο. Σε όλες αυτές τις περιπτώσεις, κατά τη μεταφορά δεδομένων από έναν τομέα σε άλλο, η συνολική απόδοση των βασικών κόμβων δικτύου έχει ξεπεράσει για πολύ καιρό τις δυνατότητες των θυρών 10 GbE. [1] Αυτός είναι ο λόγος για την εμφάνιση ενός νέου προτύπου: 100 GbE.

Τα μεγάλα κέντρα δεδομένων και οι πάροχοι υπηρεσιών cloud χρησιμοποιούν ήδη ενεργά 100 GbE και σχεδιάζουν να μεταβούν σταδιακά σε 200 GbE και 400 GbE σε μερικά χρόνια. Ταυτόχρονα, ήδη κοιτάζουν ταχύτητες που ξεπερνούν το terabit. [6] Αν και υπάρχουν ορισμένοι μεγάλοι προμηθευτές που μετακινούνται στα 100 GbE μόλις πέρυσι (για παράδειγμα, το Microsoft Azure). Τα κέντρα δεδομένων που διαθέτουν υπολογιστές υψηλής απόδοσης για χρηματοοικονομικές υπηρεσίες, κυβερνητικές πλατφόρμες, πλατφόρμες πετρελαίου και φυσικού αερίου και επιχειρήσεις κοινής ωφέλειας έχουν επίσης αρχίσει να μετακινούνται στα 100 GbE. [5]

Στα εταιρικά κέντρα δεδομένων, η ζήτηση για εύρος ζώνης είναι κάπως χαμηλότερη: μόλις πρόσφατα τα 10 GbE έγιναν αναγκαιότητα και όχι πολυτέλεια. Ωστόσο, καθώς ο ρυθμός κατανάλωσης κίνησης αυξάνεται ολοένα και πιο γρήγορα, είναι αμφίβολο ότι τα 10 GbE θα διαμένουν σε εταιρικά κέντρα δεδομένων για τουλάχιστον 10 ή και 5 χρόνια. Αντίθετα, θα δούμε μια γρήγορη μετάβαση στα 25 GbE και μια ακόμη πιο γρήγορη μετάβαση στα 100 GbE. [6] Επειδή, όπως σημειώνουν οι αναλυτές της Intel, η ένταση της κίνησης μέσα στο κέντρο δεδομένων αυξάνεται ετησίως κατά 25%. [5]

Αναλυτές από την Dell και τη Hewlett Packard δηλώνουν [4] ότι το 2018 είναι η χρονιά των 100 GbE για τα κέντρα δεδομένων. Τον Αύγουστο του 2018, οι παραδόσεις εξοπλισμού 100 GbE ήταν διπλάσιες από τις παραδόσεις για ολόκληρο το έτος 2017. Και ο ρυθμός των αποστολών συνεχίζει να επιταχύνεται καθώς τα κέντρα δεδομένων αρχίζουν να απομακρύνονται από τα 40 GbE κατά πλήθος. Αναμένεται ότι έως το 2022, 19,4 εκατομμύρια θύρες 100 GbE θα αποστέλλονται ετησίως (το 2017, για σύγκριση, ο αριθμός αυτός ήταν 4,6 εκατομμύρια). [4] Όσον αφορά το κόστος, το 2017 δαπανήθηκαν 100 δισεκατομμύρια δολάρια σε θύρες 7 GbE και το 2020, σύμφωνα με προβλέψεις, θα δαπανηθούν περίπου 20 δισεκατομμύρια δολάρια (βλ. Εικ. 1). [1]

100GbE: πολυτέλεια ή απαραίτητη ανάγκη;
Σχήμα 1. Στατιστικά στοιχεία και προβλέψεις ζήτησης εξοπλισμού δικτύου

Γιατί τώρα? Τα 100 GbE δεν είναι ακριβώς μια νέα τεχνολογία, οπότε γιατί υπάρχει τόσο μεγάλη δημοσιότητα γύρω από αυτό τώρα;

1) Γιατί αυτή η τεχνολογία έχει ωριμάσει και έχει γίνει φθηνότερη. Ήταν το 2018 που ξεπεράσαμε τα όρια, όταν η χρήση πλατφορμών με θύρες 100 Gigabit στο κέντρο δεδομένων έγινε πιο οικονομική από το να «στοιβάσουμε» πολλές πλατφόρμες 10 Gigabit. Παράδειγμα: Το Ciena 5170 (βλ. Εικόνα 2) είναι μια συμπαγής πλατφόρμα που παρέχει συνολική απόδοση 800GbE (4x100GbE, 40x10GbE). Εάν απαιτούνται πολλές θύρες 10 Gigabit για την παροχή της απαραίτητης απόδοσης, τότε το κόστος πρόσθετου υλικού, πρόσθετου χώρου, υπερβολικής κατανάλωσης ενέργειας, συνεχούς συντήρησης, πρόσθετων ανταλλακτικών και πρόσθετων συστημάτων ψύξης ανέρχεται σε ένα αρκετά τακτοποιημένο ποσό. [1] Για παράδειγμα, οι ειδικοί της Hewlett Packard, αναλύοντας τα πιθανά οφέλη της μετάβασης από τα 10GbE στα 100GbE, κατέληξαν στα ακόλουθα στοιχεία: υψηλότερη απόδοση (56%), χαμηλότερο συνολικό κόστος (27%), χαμηλότερη κατανάλωση ενέργειας (31%), συνδέσεις καλωδίων απλοποίησης (κατά 38%). [5]

100GbE: πολυτέλεια ή απαραίτητη ανάγκη;
Εικόνα 2. Ciena 5170: παράδειγμα πλατφόρμας με θύρες 100 Gigabit

2) Η Juniper και η Cisco δημιούργησαν επιτέλους τα δικά τους ASIC για διακόπτες 100 GbE. [5] Το οποίο αποτελεί εύγλωττη επιβεβαίωση του γεγονότος ότι η τεχνολογία 100 GbE είναι πραγματικά ώριμη. Το γεγονός είναι ότι η δημιουργία τσιπ ASIC είναι οικονομικά αποδοτική μόνο όταν, πρώτον, η λογική που εφαρμόζεται σε αυτά δεν απαιτεί αλλαγές στο άμεσο μέλλον και, δεύτερον, όταν κατασκευάζεται μεγάλος αριθμός πανομοιότυπων τσιπ. Η Juniper και η Cisco δεν θα παρήγαγαν αυτά τα ASIC χωρίς να είναι σίγουροι για την ωριμότητα των 100 GbE.

3) Επειδή η Broadcom, η Cavium και η Mellanox Technologie έχουν αρχίσει να παράγουν επεξεργαστές με υποστήριξη 100 GbE και αυτοί οι επεξεργαστές χρησιμοποιούνται ήδη σε μεταγωγείς από κατασκευαστές όπως η Dell, η Hewlett Packard, η Huawei Technologies, η Lenovo Group κ.λπ. [5]

4) Επειδή οι διακομιστές που στεγάζονται σε rack διακομιστών είναι ολοένα και περισσότερο εξοπλισμένοι με τους πιο πρόσφατους προσαρμογείς δικτύου Intel (βλ. Εικόνα 3), με δύο θύρες 25 Gigabit, και μερικές φορές ακόμη και συγκλινόμενους προσαρμογείς δικτύου με δύο θύρες 40 Gigabit (XXV710 και XL710). {Εικόνα 3. Τελευταία NIC Intel: XXV710 και XL710}

5) Επειδή ο εξοπλισμός 100 GbE είναι συμβατός προς τα πίσω, γεγονός που απλοποιεί την ανάπτυξη: μπορείτε να επαναχρησιμοποιήσετε ήδη δρομολογημένα καλώδια (απλώς συνδέστε έναν νέο πομποδέκτη σε αυτά).

Επιπλέον, η διαθεσιμότητα των 100 GbE μας προετοιμάζει για νέες τεχνολογίες όπως το "NVMe over Fabrics" (για παράδειγμα, Samsung Evo Pro 256 GB NVMe PCIe SSD; βλ. Εικ. 4) [8, 10], "Storage Area Network" (SAN ) / «Software Defined Storage» (βλ. Εικ. 5) [7], RDMA [11], τα οποία χωρίς 100 GbE δεν θα μπορούσαν να αξιοποιήσουν πλήρως τις δυνατότητές τους.

100GbE: πολυτέλεια ή απαραίτητη ανάγκη;
Εικόνα 4. Samsung Evo Pro 256 GB NVMe PCIe SSD

100GbE: πολυτέλεια ή απαραίτητη ανάγκη;
Εικόνα 5. «Δίκτυο περιοχής αποθήκευσης» (SAN) / «Αποθήκευση καθορισμένου λογισμικού»

Τέλος, ως εξωτικό παράδειγμα της πρακτικής ζήτησης για τη χρήση 100 GbE και σχετικών τεχνολογιών υψηλής ταχύτητας, μπορούμε να αναφέρουμε το επιστημονικό νέφος του Πανεπιστημίου του Cambridge (βλ. Εικ. 6), το οποίο είναι κατασκευασμένο με βάση τα 100 GbE (Spectrum SN2700 διακόπτες Ethernet) - προκειμένου, μεταξύ άλλων, να διασφαλιστεί η αποτελεσματική λειτουργία του κατανεμημένου δίσκου αποθήκευσης NexentaEdge SDS, ο οποίος μπορεί εύκολα να υπερφορτώσει ένα δίκτυο 10/40 GbE. [2] Τέτοια επιστημονικά σύννεφα υψηλής απόδοσης αναπτύσσονται για την επίλυση μιας μεγάλης ποικιλίας εφαρμοσμένων επιστημονικών προβλημάτων [9, 12]. Για παράδειγμα, οι ιατροί επιστήμονες χρησιμοποιούν τέτοια σύννεφα για να αποκρυπτογραφήσουν το ανθρώπινο γονιδίωμα και τα κανάλια 100 GbE χρησιμοποιούνται για τη μεταφορά πληροφοριών μεταξύ πανεπιστημιακών ερευνητικών ομάδων.

100GbE: πολυτέλεια ή απαραίτητη ανάγκη;
Εικόνα 6. Θραύσμα του επιστημονικού νέφους του Πανεπιστημίου του Κέμπριτζ

Βιβλιογραφία

  1. Τζον Χόκινς. 100 GbE: Πιο κοντά στην άκρη, πιο κοντά στην πραγματικότητα // 2017.
  2. Άμιτ Κατς. Διακόπτες 100 GbE – Έχετε κάνει τα μαθηματικά; // 2016.
  3. Μάργκαρετ Ρόουζ. 100 Gigabit Ethernet (100 GbE).
  4. Ντέιβιντ Γκρέιβς. Η Dell EMC διπλασιάζει το Ethernet 100 Gigabit για το ανοιχτό, σύγχρονο κέντρο δεδομένων // 2018.
  5. Μαίρη Μπράνσκομπ. Το έτος των 100 GbE στα δίκτυα κέντρων δεδομένων // 2018.
  6. Τζάρεντ Μπέικερ. Ταχύτερη κίνηση στο Enterprise Data Center // 2017.
  7. Τομ Κλαρκ. Σχεδιασμός δικτύων περιοχής αποθήκευσης: Μια πρακτική αναφορά για την υλοποίηση καναλιών οπτικών ινών και IP SAN. 2003. 572σ.
  8. Τζέιμς Ο' Ράιλι. Αποθήκευση δικτύου: Εργαλεία και τεχνολογίες για την αποθήκευση των δεδομένων της εταιρείας σας // 2017. 280σ.
  9. Τζέιμς Σάλιβαν. Διαγωνισμός συμπλέγματος φοιτητών 2017, Team University of Texas at Austin/Texas State University: Reproducing vectorization of the Tersoff multi-body δυναμικό στις αρχιτεκτονικές Intel Skylake και NVIDIA V100 // Parallel Computing. τ. 79, 2018. σελ. 30-35.
  10. Μανώλης Κατεβένης. Η επόμενη γενιά συστημάτων κλάσης Exascale: το ExaNeSt Project // Μικροεπεξεργαστές και Μικροσυστήματα. τ. 61, 2018. σελ. 58-71.
  11. Χάρι Σουμπραμόνι. RDMA μέσω Ethernet: Μια Προκαταρκτική Μελέτη // Πρακτικά του Εργαστηρίου για Διασυνδέσεις Υψηλής Απόδοσης για Κατανεμημένους Υπολογιστές. 2009.
  12. Chris Broekema. Ενεργειακά αποδοτικές μεταφορές δεδομένων στη ραδιοαστρονομία με λογισμικό UDP RDMA // Συστήματα υπολογιστών μελλοντικής γενιάς. τ. 79, 2018. σελ. 215-224.

PS. Αυτό το άρθρο δημοσιεύθηκε αρχικά στο "Διαχειριστής συστήματος".

Μόνο εγγεγραμμένοι χρήστες μπορούν να συμμετάσχουν στην έρευνα. Συνδεθείτε, Σας παρακαλούμε.

Γιατί τα μεγάλα κέντρα δεδομένων άρχισαν να μετακινούνται μαζικά στα 100 GbE;

  • Στην πραγματικότητα, κανείς δεν έχει αρχίσει να κινείται πουθενά ακόμα...

  • Γιατί αυτή η τεχνολογία έχει ωριμάσει και έχει γίνει φθηνότερη

  • Επειδή η Juniper και η Cisco δημιούργησαν ASIC για διακόπτες 100 GbE

  • Επειδή η Broadcom, η Cavium και η Mellanox Technologie έχουν προσθέσει υποστήριξη 100 GbE

  • Επειδή οι διακομιστές έχουν πλέον θύρες 25 και 40 gigabit

  • Η εκδοχή σας (γράψτε στα σχόλια)

Ψήφισαν 12 χρήστες. 15 χρήστες απείχαν.

Πηγή: www.habr.com

Προσθέστε ένα σχόλιο