100GbE: luxo ou necesidade esencial?

IEEE P802.3ba, un estándar para transmitir datos a través de 100 Gigabit Ethernet (100 GbE), desenvolveuse entre 2007 e 2010 [3], pero só se estendeu en 2018 [5]. Por que en 2018 e non antes? E por que inmediatamente en masa? Hai polo menos cinco razóns para isto...

100GbE: luxo ou necesidade esencial?

IEEE P802.3ba desenvolveuse principalmente para satisfacer as necesidades dos centros de datos e as necesidades dos puntos de intercambio de tráfico de Internet (entre operadores independentes); así como para garantir o funcionamento ininterrompido dos servizos web con uso intensivo de recursos, como portais cunha gran cantidade de contido de vídeo (por exemplo, YouTube); e para computación de alto rendemento. [3] Os usuarios comúns de Internet tamén están contribuíndo a cambiar as demandas de ancho de banda: moitas persoas teñen cámaras dixitais e a xente quere transmitir o contido que captura a través de Internet. Iso. O volume de contidos que circula por Internet é cada vez maior co paso do tempo. Tanto a nivel profesional como de consumidor. En todos estes casos, ao transferir datos dun dominio a outro, o rendemento total dos nodos clave de rede superou durante moito tempo as capacidades dos portos 10GbE. [1] Este é o motivo da aparición dun novo estándar: 100GbE.

Os grandes centros de datos e os provedores de servizos na nube xa están a usar activamente 100 GbE e planean pasar gradualmente a 200 GbE e 400 GbE nun par de anos. Ao mesmo tempo, xa están mirando velocidades superiores a terabit. [6] Aínda que hai algúns grandes provedores que só se mudaron a 100GbE o ano pasado (por exemplo, Microsoft Azure). Os centros de datos que executan computación de alto rendemento para servizos financeiros, plataformas gobernamentais, plataformas de petróleo e gas e servizos públicos tamén comezaron a pasar a 100 GbE. [5]

Nos centros de datos empresariais, a demanda de ancho de banda é algo menor: só recentemente 10GbE converteuse aquí nunha necesidade e non nun luxo. Non obstante, a medida que a taxa de consumo de tráfico crece cada vez máis rápido, é dubidoso que 10GbE viva nos centros de datos empresariais durante polo menos 10 ou incluso 5 anos. Pola contra, veremos un movemento rápido a 25 GbE e un movemento aínda máis rápido a 100 GbE. [6] Porque, como sinalan os analistas de Intel, a intensidade do tráfico dentro do centro de datos aumenta anualmente nun 25%. [5]

Os analistas de Dell e Hewlett Packard afirman [4] que 2018 é o ano de 100 GbE para os centros de datos. En agosto de 2018, as entregas de equipos de 100 GbE foron o dobre das entregas durante todo o ano 2017. E o ritmo dos envíos segue acelerándose a medida que os centros de datos comezan a afastarse de 40 GbE en masa. Espérase que para 2022 se envíen 19,4 millóns de portos 100GbE ao ano (en 2017, a título de comparación, esta cifra foi de 4,6 millóns). [4] En canto aos custos, en 2017 gastáronse 100 millóns de dólares en portos de 7 GbE, e en 2020, segundo as previsións, gastaranse uns 20 millóns de dólares (ver figura 1). [1]

100GbE: luxo ou necesidade esencial?
Figura 1. Estatísticas e previsións de demanda de equipos de rede

Por que agora? 100GbE non é exactamente unha tecnoloxía nova, entón por que hai tanta publicidade ao redor agora?

1) Porque esta tecnoloxía madurou e volveuse máis barata. Foi en 2018 cando cruzamos a liña cando o uso de plataformas con portos de 100 Gigabit no centro de datos fíxose máis rendible que "apilar" varias plataformas de 10 Gigabit. Exemplo: Ciena 5170 (consulte a Figura 2) é unha plataforma compacta que ofrece un rendemento agregado de 800 GbE (4x100GbE, 40x10GbE). Se son necesarios varios portos de 10 Gigabit para proporcionar o rendemento necesario, entón os custos de hardware adicional, espazo adicional, consumo de enerxía en exceso, mantemento continuo, pezas de reposición adicionais e sistemas de refrixeración adicionais suman unha suma bastante ordenada. [1] Por exemplo, os especialistas de Hewlett Packard, ao analizar os posibles beneficios de pasar de 10GbE a 100GbE, chegaron ás seguintes cifras: maior rendemento (56%), menor custo total (27%), menor consumo de enerxía (31%), simplificación de conexións por cable (un 38%). [5]

100GbE: luxo ou necesidade esencial?
Figura 2. Ciena 5170: plataforma de exemplo con portos de 100 Gigabit

2) Juniper e Cisco finalmente crearon os seus propios ASIC para conmutadores 100GbE. [5] O que é unha confirmación elocuente do feito de que a tecnoloxía 100GbE é verdadeiramente madura. O feito é que é rendible crear chips ASIC só cando, en primeiro lugar, a lóxica implementada neles non require cambios nun futuro previsible e, en segundo lugar, cando se fabrican un gran número de chips idénticos. Juniper e Cisco non producirían estes ASIC sen confiar na madurez de 100GbE.

3) Porque Broadcom, Cavium e Mellanox Technologie comezaron a producir procesadores con soporte de 100 GbE, e estes procesadores xa se usan en conmutadores de fabricantes como Dell, Hewlett Packard, Huawei Technologies, Lenovo Group, etc. [5]

4) Porque os servidores aloxados en racks de servidores están cada vez máis equipados cos adaptadores de rede Intel máis recentes (ver Figura 3), con dous portos de 25 gigabits e, ás veces, incluso con adaptadores de rede converxentes con dous portos de 40 gigabits (XXV710 e XL710). {Figura 3. NIC Intel máis recentes: XXV710 e XL710}

5) Porque os equipos 100GbE son compatibles con versións anteriores, o que simplifica a implantación: podes reutilizar os cables xa enrutados (só conecte un novo transceptor a eles).

Ademais, a dispoñibilidade de 100 GbE prepáranos para novas tecnoloxías como "NVMe over Fabrics" (por exemplo, Samsung Evo Pro 256 GB NVMe PCIe SSD; consulte a Fig. 4) [8, 10], "Storage Area Network" (SAN). ) / "Software Defined Storage" (ver Fig. 5) [7], RDMA [11], que sen 100GbE non poderían realizar todo o seu potencial.

100GbE: luxo ou necesidade esencial?
Figura 4. Samsung Evo Pro 256 GB NVMe PCIe SSD

100GbE: luxo ou necesidade esencial?
Figura 5. "Rede de área de almacenamento" (SAN) / "Almacenamento definido por software"

Finalmente, como exemplo exótico da demanda práctica do uso de 100GbE e tecnoloxías de alta velocidade relacionadas, podemos citar a nube científica da Universidade de Cambridge (ver Fig. 6), que está construída sobre a base de 100GbE (Spectrum). Switch Ethernet SN2700): para, entre outras cousas, garantir un funcionamento eficiente do almacenamento de discos distribuídos NexentaEdge SDS, que pode sobrecargar facilmente unha rede 10/40GbE. [2] Estas nubes científicas de alto rendemento despréganse para resolver unha gran variedade de problemas científicos aplicados [9, 12]. Por exemplo, os científicos médicos usan este tipo de nubes para descifrar o xenoma humano, e utilízanse canles de 100 GbE para transferir información entre grupos de investigación universitarios.

100GbE: luxo ou necesidade esencial?
Figura 6. Fragmento da nube científica da Universidade de Cambridge

Bibliografía

  1. John Hawkins. 100 GbE: máis preto do límite, máis preto da realidade // 2017.
  2. Amit Katz. Switches 100GbE: fixeches as matemáticas? // 2016.
  3. Margaret Rose. 100 Gigabit Ethernet (100 GbE).
  4. David Graves. Dell EMC duplica con 100 Gigabit Ethernet para o centro de datos moderno e aberto // 2018.
  5. María Branscombe. O ano dos 100 GbE nas redes de centros de datos // 2018.
  6. Jarred Baker. Moverse máis rápido no centro de datos empresarial // 2017.
  7. Tom Clark. Deseño de redes de área de almacenamento: unha referencia práctica para a implementación de SAN IP e Fibre Channel. 2003. 572 p.
  8. James O'Reilly. Almacenamento en rede: ferramentas e tecnoloxías para almacenar os datos da túa empresa // 2017. 280p.
  9. James Sullivan. Concurso de clusters de estudantes 2017, Team University of Texas at Austin/Texas State University: Reproducir a vectorización do potencial multicorpo de Tersoff nas arquitecturas Intel Skylake e NVIDIA V100 // Computación paralela. v.79, 2018. pp. 30-35.
  10. Manolis Katevenis. A próxima xeración de sistemas de clase Exascale: o proxecto ExaNeSt // Microprocesadores and Microsystems. v.61, 2018. pp. 58-71.
  11. Hari Subramoni. RDMA over Ethernet: A Preliminar Study // Actas do Workshop on High Performance Interconnects for Distributed Computing. 2009.
  12. Chris Broekema. Transferencias de datos de eficiencia enerxética en radioastronomía con software UDP RDMA // Future Generation Computer Systems. v.79, 2018. pp. 215-224.

PS. O artigo publicouse orixinalmente en "Administrador do sistema".

Só os usuarios rexistrados poden participar na enquisa. Rexístrate, por favor.

Por que os grandes centros de datos comezaron a moverse en masa a 100 GbE?

  • De feito, aínda ninguén comezou a moverse por ningún lado...

  • Porque esta tecnoloxía madurou e volveuse máis barata

  • Porque Juniper e Cisco crearon ASIC para conmutadores de 100 GbE

  • Porque Broadcom, Cavium e Mellanox Technologie engadiron compatibilidade con 100 GbE

  • Porque os servidores agora teñen portos de 25 e 40 gigabits

  • A túa versión (escribe nos comentarios)

Votaron 12 usuarios. 15 usuarios abstivéronse.

Fonte: www.habr.com

Engadir un comentario