100GbE: ¿lujo o necesidad esencial?

IEEE P802.3ba, un estándar para transmitir datos a través de 100 Gigabit Ethernet (100GbE), se desarrolló entre 2007 y 2010 [3], pero no se generalizó hasta 2018 [5]. ¿Por qué en 2018 y no antes? ¿Y por qué inmediatamente en masa? Hay al menos cinco razones para esto...

100GbE: ¿lujo o necesidad esencial?

IEEE P802.3ba fue desarrollado principalmente para satisfacer las necesidades de los centros de datos y las necesidades de los puntos de intercambio de tráfico de Internet (entre operadores independientes); así como garantizar el funcionamiento ininterrumpido de servicios web que consumen muchos recursos, como portales con una gran cantidad de contenido de vídeo (por ejemplo, YouTube); y para informática de alto rendimiento. [3] Los usuarios comunes de Internet también están contribuyendo a cambiar las demandas de ancho de banda: muchas personas tienen cámaras digitales y quieren transmitir el contenido que capturan a través de Internet. Eso. El volumen de contenidos que circulan en Internet es cada vez mayor con el tiempo. Tanto a nivel profesional como de consumidor. En todos estos casos, al transferir datos de un dominio a otro, el rendimiento total de los nodos clave de la red ha superado durante mucho tiempo las capacidades de los puertos de 10 GbE. [1] Este es el motivo de la aparición de un nuevo estándar: 100GbE.

Los grandes centros de datos y proveedores de servicios en la nube ya están utilizando activamente 100 GbE y planean pasar gradualmente a 200 GbE y 400 GbE en un par de años. Al mismo tiempo, ya están buscando velocidades superiores al terabit. [6] Aunque hay algunos grandes proveedores que están migrando a 100GbE recién el año pasado (por ejemplo, Microsoft Azure). Los centros de datos que ejecutan computación de alto rendimiento para servicios financieros, plataformas gubernamentales, plataformas de petróleo y gas y servicios públicos también han comenzado a pasar a 100GbE. [5]

En los centros de datos empresariales, la demanda de ancho de banda es algo menor: sólo recientemente los 10GbE se han convertido aquí en una necesidad y no en un lujo. Sin embargo, a medida que la tasa de consumo de tráfico crece cada vez más rápidamente, es dudoso que 10GbE permanezca en los centros de datos empresariales durante al menos 10 o incluso 5 años. En cambio, veremos un paso rápido a 25 GbE y un paso aún más rápido a 100 GbE. [6] Porque, como señalan los analistas de Intel, la intensidad del tráfico dentro del centro de datos aumenta anualmente en un 25%. [5]

Analistas de Dell y Hewlett Packard afirman [4] que 2018 es el año de los 100GbE para los centros de datos. En agosto de 2018, las entregas de equipos de 100 GbE duplicaron las entregas de todo el año 2017. Y el ritmo de los envíos continúa acelerándose a medida que los centros de datos comienzan a alejarse en masa de los 40GbE. Se espera que para 2022 se envíen 19,4 millones de puertos de 100 GbE anualmente (en 2017, en comparación, esta cifra fue de 4,6 millones). [4] En cuanto a los costes, en 2017 se gastaron 100 mil millones de dólares en puertos de 7 GbE, y en 2020, según las previsiones, se gastarán alrededor de 20 mil millones de dólares (ver Fig. 1). [1]

100GbE: ¿lujo o necesidad esencial?
Figura 1. Estadísticas y previsiones de demanda de equipos de red

¿Porqué ahora? 100GbE no es exactamente una tecnología nueva, entonces, ¿por qué hay tanto revuelo en torno a ella ahora?

1) Porque esta tecnología ha madurado y se ha abaratado. Fue en 2018 cuando cruzamos la línea cuando usar plataformas con puertos de 100 Gigabits en el centro de datos se volvió más rentable que “apilar” varias plataformas de 10 Gigabits. Ejemplo: Ciena 5170 (consulte la Figura 2) es una plataforma compacta que proporciona un rendimiento agregado de 800 GbE (4x100 GbE, 40x10 GbE). Si se requieren múltiples puertos de 10 Gigabit para proporcionar el rendimiento necesario, entonces los costos de hardware adicional, espacio adicional, consumo excesivo de energía, mantenimiento continuo, repuestos adicionales y sistemas de enfriamiento adicionales suman una suma bastante considerable. [1] Por ejemplo, los especialistas de Hewlett Packard, al analizar los beneficios potenciales de pasar de 10GbE a 100GbE, llegaron a las siguientes cifras: mayor rendimiento (56%), menores costos totales (27%), menor consumo de energía (31%), simplificación conexiones de cables (en un 38%). [5]

100GbE: ¿lujo o necesidad esencial?
Figura 2. Ciena 5170: plataforma de ejemplo con puertos de 100 Gigabit

2) Juniper y Cisco finalmente crearon sus propios ASIC para conmutadores de 100 GbE. [5] Lo cual es una confirmación elocuente del hecho de que la tecnología 100GbE está verdaderamente madura. El hecho es que es rentable crear chips ASIC solo cuando, en primer lugar, la lógica implementada en ellos no requiere cambios en el futuro previsible y, en segundo lugar, cuando se fabrican una gran cantidad de chips idénticos. Juniper y Cisco no producirían estos ASIC sin confiar en la madurez de 100GbE.

3) Porque Broadcom, Cavium y Mellanox Technologie han comenzado a producir procesadores con soporte de 100 GbE, y estos procesadores ya se utilizan en conmutadores de fabricantes como Dell, Hewlett Packard, Huawei Technologies, Lenovo Group, etc. [5]

4) Porque los servidores alojados en bastidores de servidores están cada vez más equipados con los últimos adaptadores de red Intel (ver Figura 3), con dos puertos de 25 Gigabit y, a veces, incluso adaptadores de red convergentes con dos puertos de 40 Gigabit (XXV710 y XL710). {Figura 3. Últimas NIC de Intel: XXV710 y XL710}

5) Porque los equipos de 100GbE son compatibles con versiones anteriores, lo que simplifica la implementación: puede reutilizar cables ya enrutados (simplemente conécteles un nuevo transceptor).

Además, la disponibilidad de 100GbE nos prepara para nuevas tecnologías como “NVMe over Fabrics” (por ejemplo, Samsung Evo Pro 256 GB NVMe PCIe SSD; ver Fig. 4) [8, 10], “Storage Area Network” (SAN ) / “Almacenamiento definido por software” (ver Fig. 5) [7], RDMA [11], que sin 100GbE no podrían desarrollar todo su potencial.

100GbE: ¿lujo o necesidad esencial?
Figura 4. SSD PCIe NVMe Samsung Evo Pro de 256 GB

100GbE: ¿lujo o necesidad esencial?
Figura 5. “Red de área de almacenamiento” (SAN) / “Almacenamiento definido por software”

Finalmente, como ejemplo exótico de la demanda práctica del uso de 100GbE y tecnologías de alta velocidad relacionadas, podemos citar la nube científica de la Universidad de Cambridge (ver Fig. 6), que está construida sobre la base de 100GbE (Spectrum SN2700 Ethernet) - para, entre otras cosas, garantizar el funcionamiento eficiente del almacenamiento en disco distribuido NexentaEdge SDS, que puede sobrecargar fácilmente una red de 10/40 GbE. [2] Estas nubes científicas de alto rendimiento se implementan para resolver una amplia variedad de problemas científicos aplicados [9, 12]. Por ejemplo, los científicos médicos utilizan este tipo de nubes para descifrar el genoma humano y canales de 100 GbE se utilizan para transferir información entre grupos de investigación universitarios.

100GbE: ¿lujo o necesidad esencial?
Figura 6. Fragmento de la nube científica de la Universidad de Cambridge

Bibliografía

  1. John Hawkins. 100GbE: más cerca del límite, más cerca de la realidad // 2017.
  2. Amit Katz. Conmutadores de 100 GbE: ¿ha hecho los cálculos? // 2016.
  3. Margarita Rouse. Ethernet de 100 Gigabits (100 GbE).
  4. David Graves. Dell EMC duplica su apuesta por 100 Gigabit Ethernet para el centro de datos moderno y abierto // 2018.
  5. María Branscombe. El año de los 100GbE en las redes de centros de datos // 2018.
  6. Jarred Baker. Moviéndose más rápido en el centro de datos empresarial // 2017.
  7. Tom Clark. Diseño de redes de área de almacenamiento: una referencia práctica para implementar SAN IP y Fibre Channel. 2003. 572p.
  8. James O'Reilly. Almacenamiento en red: herramientas y tecnologías para almacenar los datos de su empresa // 2017. 280p.
  9. James Sullivan. Concurso de grupos de estudiantes 2017, Equipo de la Universidad de Texas en Austin/Universidad Estatal de Texas: Reproducción de la vectorización del potencial multicuerpo de Tersoff en las arquitecturas Intel Skylake y NVIDIA V100 // Computación paralela. v.79, 2018. págs. 30-35.
  10. Manolis Katevenis. La próxima generación de sistemas de clase exaescala: el proyecto ExaNeSt // Microprocesadores y microsistemas. v.61, 2018. págs. 58-71.
  11. Hari Subramoni. RDMA sobre Ethernet: un estudio preliminar // Actas del taller sobre interconexiones de alto rendimiento para informática distribuida. 2009.
  12. Chris Broekema. Transferencias de datos energéticamente eficientes en radioastronomía con software UDP RDMA // Sistemas informáticos de futura generación. v.79, 2018. págs. 215-224.

PS. Este artículo fue publicado originalmente en "Administrador de sistema".

Solo los usuarios registrados pueden participar en la encuesta. Registrarsepor favor

¿Por qué los grandes centros de datos comenzaron a migrar masivamente a 100GbE?

  • En realidad, nadie ha empezado a mudarse a ninguna parte todavía...

  • Porque esta tecnología ha madurado y se ha vuelto más barata.

  • Porque Juniper y Cisco crearon ASIC para conmutadores de 100 GbE

  • Porque Broadcom, Cavium y Mellanox Technologie han agregado soporte de 100GbE

  • Porque los servidores ahora tienen puertos de 25 y 40 gigabits

  • Tu versión (escribe en los comentarios)

12 usuarios votaron. 15 usuarios se abstuvieron.

Fuente: habr.com

Añadir un comentario