100GbE: luxo ou necessidade essencial?

IEEE P802.3ba, um padrão para transmissão de dados em 100 Gigabit Ethernet (100GbE), foi desenvolvido entre 2007 e 2010 [3], mas só se difundiu em 2018 [5]. Por que em 2018 e não antes? E por que imediatamente em massa? Há pelo menos cinco razões para isso...

100GbE: luxo ou necessidade essencial?

O IEEE P802.3ba foi desenvolvido principalmente para atender às necessidades dos data centers e dos pontos de troca de tráfego da Internet (entre operadoras independentes); bem como garantir o funcionamento ininterrupto de serviços web com uso intensivo de recursos, como portais com grande quantidade de conteúdo de vídeo (por exemplo, YouTube); e para computação de alto desempenho. [3] Os usuários comuns da Internet também estão contribuindo para a mudança nos requisitos de largura de banda: muitas pessoas possuem câmeras digitais e desejam transmitir o conteúdo que capturam pela Internet. Que. O volume de conteúdo que circula na Internet é cada vez maior ao longo do tempo. Tanto a nível profissional como de consumidor. Em todos esses casos, ao transferir dados de um domínio para outro, o rendimento total dos principais nós da rede excedeu em muito as capacidades das portas de 10 GbE. [1] Esta é a razão do surgimento de um novo padrão: 100GbE.

Grandes data centers e provedores de serviços em nuvem já estão usando ativamente 100 GbE e planejam migrar gradualmente para 200 GbE e 400 GbE dentro de alguns anos. Ao mesmo tempo, eles já buscam velocidades superiores a terabits. [6] Embora existam alguns grandes fornecedores que migraram para 100GbE apenas no ano passado (por exemplo, Microsoft Azure). Os data centers que executam computação de alto desempenho para serviços financeiros, plataformas governamentais, plataformas de petróleo e gás e serviços públicos também começaram a migrar para 100 GbE. [5]

Nos data centers empresariais, a demanda por largura de banda é um pouco menor: só recentemente o 10GbE se tornou uma necessidade e não um luxo aqui. No entanto, à medida que a taxa de consumo de tráfego cresce cada vez mais rapidamente, é duvidoso que 10GbE permaneça nos centros de dados empresariais durante pelo menos 10 ou mesmo 5 anos. Em vez disso, veremos uma mudança rápida para 25 GbE e uma mudança ainda mais rápida para 100 GbE. [6] Porque, como observam os analistas da Intel, a intensidade do tráfego dentro do data center aumenta anualmente em 25%. [5]

Analistas da Dell e Hewlett Packard afirmam [4] que 2018 é o ano dos 100GbE para data centers. Em agosto de 2018, as entregas de equipamentos 100GbE foram duas vezes maiores que as entregas de todo o ano de 2017. E o ritmo das remessas continua a acelerar à medida que os data centers começam a se afastar em massa dos 40 GbE. Espera-se que até 2022, 19,4 milhões de portas 100GbE sejam enviadas anualmente (em 2017, para efeito de comparação, esse número era de 4,6 milhões). [4] Quanto aos custos, em 2017 foram gastos 100 mil milhões de dólares em portas 7GbE e, em 2020, de acordo com as previsões, serão gastos cerca de 20 mil milhões de dólares (ver Fig. 1). [1]

100GbE: luxo ou necessidade essencial?
Figura 1. Estatísticas e previsões de demanda por equipamentos de rede

Porque agora? 100GbE não é exatamente uma tecnologia nova, então por que há tanto entusiasmo em torno dela agora?

1) Porque essa tecnologia amadureceu e ficou mais barata. Foi em 2018 que ultrapassamos os limites quando usar plataformas com portas de 100 Gigabit no data center se tornou mais econômico do que “empilhar” várias plataformas de 10 Gigabit. Exemplo: Ciena 5170 (veja a Figura 2) é uma plataforma compacta que fornece taxa de transferência agregada de 800 GbE (4x100GbE, 40x10GbE). Se várias portas de 10 Gigabit forem necessárias para fornecer o rendimento necessário, então os custos de hardware adicional, espaço adicional, consumo excessivo de energia, manutenção contínua, peças sobressalentes adicionais e sistemas de resfriamento adicionais somam uma soma bastante considerável. [1] Por exemplo, os especialistas da Hewlett Packard, analisando os benefícios potenciais da mudança de 10GbE para 100GbE, chegaram aos seguintes números: maior desempenho (56%), menores custos totais (27%), menor consumo de energia (31%), simplificação das conexões de cabos (em 38%). [5]

100GbE: luxo ou necessidade essencial?
Figura 2. Ciena 5170: exemplo de plataforma com portas de 100 Gigabit

2) A Juniper e a Cisco finalmente criaram seus próprios ASICs para switches 100GbE. [5] O que é uma confirmação eloquente do fato de que a tecnologia 100GbE está verdadeiramente madura. O fato é que só é rentável criar chips ASIC quando, em primeiro lugar, a lógica neles implementada não exigir mudanças no futuro previsível e, em segundo lugar, quando um grande número de chips idênticos for fabricado. A Juniper e a Cisco não produziriam esses ASICs sem estarem confiantes na maturidade do 100GbE.

3) Porque Broadcom, Cavium e Mellanox Technologie começaram a produzir processadores com suporte a 100GbE, e esses processadores já são usados ​​em switches de fabricantes como Dell, Hewlett Packard, Huawei Technologies, Lenovo Group, etc.

4) Porque os servidores alojados em racks de servidores estão cada vez mais equipados com os mais recentes adaptadores de rede Intel (veja a Figura 3), com duas portas de 25 Gigabit, e às vezes até adaptadores de rede convergentes com duas portas de 40 Gigabit (XXV710 e XL710). {Figura 3. NICs Intel mais recentes: XXV710 e XL710}

5) Como os equipamentos 100GbE são retrocompatíveis, o que simplifica a implantação: você pode reutilizar cabos já roteados (basta conectar um novo transceptor a eles).

Além disso, a disponibilidade de 100 GbE nos prepara para novas tecnologias como “NVMe over Fabrics” (por exemplo, Samsung Evo Pro 256 GB NVMe PCIe SSD; veja a Fig. 4) [8, 10], “Storage Area Network” (SAN ) / “Armazenamento definido por software” (ver Fig. 5) [7], RDMA [11], que sem 100 GbE não poderia atingir todo o seu potencial.

100GbE: luxo ou necessidade essencial?
Figura 4. SSD Samsung Evo Pro 256 GB NVMe PCIe

100GbE: luxo ou necessidade essencial?
Figura 5. “Rede de área de armazenamento” (SAN) / “Armazenamento definido por software”

Finalmente, como exemplo exótico da demanda prática pelo uso de 100GbE e tecnologias de alta velocidade relacionadas, podemos citar a nuvem científica da Universidade de Cambridge (ver Fig. 6), que é construída com base em 100GbE (Spectrum Switches Ethernet SN2700) - para, entre outras coisas, garantir a operação eficiente do armazenamento em disco distribuído NexentaEdge SDS, que pode facilmente sobrecarregar uma rede 10/40GbE. [2] Essas nuvens científicas de alto desempenho são implantadas para resolver uma ampla variedade de problemas científicos aplicados [9, 12]. Por exemplo, os cientistas médicos utilizam essas nuvens para decifrar o genoma humano e os canais de 100 GbE são utilizados para transferir informações entre grupos de investigação universitários.

100GbE: luxo ou necessidade essencial?
Figura 6. Fragmento da nuvem científica da Universidade de Cambridge

Bibliografia

  1. John Hawkins. 100GbE: mais perto da borda, mais perto da realidade //2017.
  2. Amit Katz. Switches 100GbE – você já fez as contas? //2016.
  3. Margarida Rosa. Ethernet de 100 Gigabits (100 GbE).
  4. David Graves. Dell EMC aposta em Ethernet de 100 Gigabit para data centers abertos e modernos //2018.
  5. Maria Branscombe. O ano dos 100 GbE nas redes de data centers //2018.
  6. Jarred Baker. Avanço mais rápido no data center empresarial //2017.
  7. Tom Clark. Projetando redes de área de armazenamento: uma referência prática para implementação de Fibre Channel e IP SANs. 2003. 572p.
  8. James O'Reilly. Armazenamento em rede: ferramentas e tecnologias para armazenar dados da sua empresa // 2017. 280p.
  9. James Sullivan. Competição de cluster de estudantes 2017, Team University of Texas em Austin/Texas State University: Reproduzindo a vetorização do potencial multicorpo Tersoff nas arquiteturas Intel Skylake e NVIDIA V100 // Computação Paralela. v.79, 2018. pp. 30-35.
  10. Manolis Katevenis. A próxima geração de sistemas da classe Exascale: o Projeto ExaNeSt // Microprocessadores e Microssistemas. v.61, 2018. pp. 58-71.
  11. Hari Subramoni. RDMA sobre Ethernet: Um Estudo Preliminar // Anais do Workshop sobre Interconexões de Alto Desempenho para Computação Distribuída. 2009.
  12. Chris Broekema. Transferências de dados com eficiência energética em radioastronomia com software UDP RDMA // Future Generation Computer Systems. v.79, 2018. pp. 215-224.

. Este artigo foi publicado originalmente em "Administrador do sistema".

Apenas usuários registrados podem participar da pesquisa. Entrarpor favor

Por que os grandes data centers começaram a migrar em massa para 100 GbE?

  • Na verdade, ninguém começou a se mudar para lugar nenhum ainda...

  • Porque esta tecnologia amadureceu e ficou mais barata

  • Porque a Juniper e a Cisco criaram ASICs para switches 100GbE

  • Porque Broadcom, Cavium e Mellanox Technologie adicionaram suporte 100GbE

  • Porque os servidores agora têm portas de 25 e 40 gigabits

  • Sua versão (escreva nos comentários)

12 usuários votaram. 15 usuários se abstiveram.

Fonte: habr.com

Adicionar um comentário