100GbE: lüks mü yoksa gereklilik mi?

802.3 Gigabit Ethernet (100GbE) üzerinden veri aktarımına yönelik bir standart olan IEEE P100ba, 2007 ile 2010 yılları arasında geliştirildi [3], ancak ancak 2018'de yaygınlaştı [5]. Neden 2018'de de daha erken değil? Peki neden hemen sürüler halinde? Bunun en az beş nedeni var...

100GbE: lüks mü yoksa gereklilik mi?

IEEE P802.3ba öncelikle veri merkezlerinin ihtiyaçlarını ve İnternet trafiği değişim noktalarının (bağımsız operatörler arasındaki) ihtiyaçlarını karşılamak için geliştirilmiştir; ayrıca büyük miktarda video içeriğine sahip portallar (örneğin YouTube) gibi kaynak yoğun web hizmetlerinin kesintisiz çalışmasını sağlamak; ve yüksek performanslı bilgi işlem için. [3] Sıradan İnternet kullanıcıları da değişen bant genişliği gereksinimlerine katkıda bulunuyor: Birçok kişinin dijital kamerası var ve insanlar yakaladıkları içeriği İnternet üzerinden yayınlamak istiyor. O. İnternette dolaşan içeriğin hacmi zamanla giderek artıyor. Hem profesyonel hem de tüketici düzeyinde. Tüm bu durumlarda, verileri bir etki alanından diğerine aktarırken, önemli ağ düğümlerinin toplam verimi uzun süredir 10GbE bağlantı noktalarının yeteneklerini aşmıştır. [1] Yeni bir standardın ortaya çıkmasının nedeni de budur: 100GbE.

Büyük veri merkezleri ve bulut hizmeti sağlayıcıları halihazırda aktif olarak 100GbE kullanıyor ve birkaç yıl içinde kademeli olarak 200GbE ve 400GbE'ye geçmeyi planlıyor. Aynı zamanda terabit'i aşan hızlara da şimdiden bakıyorlar. [6] Her ne kadar daha geçen yıl 100GbE'ye geçen bazı büyük tedarikçiler olsa da (örneğin, Microsoft Azure). Finansal hizmetler, devlet platformları, petrol ve gaz platformları ve kamu hizmetleri için yüksek performanslı bilgi işlem çalıştıran veri merkezleri de 100GbE'ye geçmeye başladı. [5]

Kurumsal veri merkezlerinde bant genişliği talebi biraz daha düşük: 10GbE burada ancak son zamanlarda lüks olmaktan çıkıp zorunluluk haline geldi. Ancak trafik tüketiminin hızı giderek arttığından, 10GbE'nin kurumsal veri merkezlerinde en az 10, hatta 5 yıl hayatta kalması şüphelidir. Bunun yerine 25GbE'ye hızlı bir geçiş ve 100GbE'ye daha da hızlı bir geçiş göreceğiz. [6] Çünkü Intel analistlerinin belirttiği gibi veri merkezi içindeki trafik yoğunluğu her yıl %25 oranında artıyor. [5]

Dell ve Hewlett Packard'dan analistler [4] 2018'in veri merkezleri için 100GbE yılı olacağını belirtiyor. Ağustos 2018'de 100GbE ekipmanının teslimatları, 2017 yılının tamamındaki teslimatların iki katıydı. Veri merkezleri 40GbE'den gruplar halinde uzaklaşmaya başladıkça sevkiyatların hızı da artmaya devam ediyor. 2022 yılına kadar yılda 19,4 milyon 100GbE bağlantı noktasının sevk edilmesi bekleniyor (karşılaştırma için 2017'de bu rakam 4,6 milyondu). [4] Maliyetlere gelince, 2017 yılında 100GbE bağlantı noktalarına 7 milyar dolar harcandı ve tahminlere göre 2020'de yaklaşık 20 milyar dolar harcanacak (bkz. Şekil 1). [1]

100GbE: lüks mü yoksa gereklilik mi?
Şekil 1. Ağ ekipmanına yönelik talep istatistikleri ve tahminleri

Neden şimdi? 100GbE tam olarak yeni bir teknoloji değil, peki neden şimdi bu kadar çok abartılıyor?

1) Çünkü bu teknoloji olgunlaştı ve ucuzladı. Veri merkezinde 2018 Gigabit bağlantı noktalarına sahip platformları kullanmanın, birkaç 100 Gigabit platformu "istiflemekten" daha uygun maliyetli hale gelmesiyle 10 yılında çizgiyi aştık. Örnek: Ciena 5170 (bkz. Şekil 2), toplam 800GbE (4x100GbE, 40x10GbE) işlem hacmi sağlayan kompakt bir platformdur. Gerekli verimi sağlamak için birden fazla 10 Gigabit bağlantı noktası gerekiyorsa, ek donanım, ek alan, aşırı güç tüketimi, devam eden bakım, ek yedek parça ve ek soğutma sistemlerinin maliyetleri oldukça düzenli bir miktara ulaşır. [1] Örneğin, 10GbE'den 100GbE'ye geçmenin potansiyel faydalarını analiz eden Hewlett Packard uzmanları şu rakamlara ulaştı: daha yüksek performans (%56), daha düşük toplam maliyetler (%27), daha düşük güç tüketimi (%31), kablo bağlantılarının basitleştirilmesi (%38 oranında). [5]

100GbE: lüks mü yoksa gereklilik mi?
Şekil 2. Ciena 5170: 100 Gigabit bağlantı noktasına sahip örnek platform

2) Juniper ve Cisco nihayet 100GbE anahtarlar için kendi ASIC'lerini oluşturdular. [5] Bu, 100GbE teknolojisinin gerçekten olgunlaştığının anlamlı bir kanıtıdır. Gerçek şu ki, ASIC yongaları oluşturmanın yalnızca ilk olarak üzerlerinde uygulanan mantık öngörülebilir gelecekte değişiklik gerektirmediğinde ve ikinci olarak çok sayıda aynı yonga üretildiğinde uygun maliyetli olmasıdır. Juniper ve Cisco, 100GbE'nin olgunluğuna güvenmeden bu ASIC'leri üretmezdi.

3) Çünkü Broadcom, Cavium ve Mellanox Technologie, 100GbE desteğine sahip işlemcileri seri olarak üretmeye başladı ve bu işlemciler halihazırda Dell, Hewlett Packard, Huawei Technologies, Lenovo Group vb. üreticilerin anahtarlarında kullanılıyor. [5]

4) Çünkü sunucu raflarında barındırılan sunucular, iki adet 3-Gigabit bağlantı noktasına sahip en yeni Intel ağ bağdaştırıcılarıyla (bkz. {Şekil 25. En Son Intel NIC'ler: XXV40 ve XL710}

5) 100GbE ekipmanı geriye dönük olarak uyumlu olduğundan dağıtımı kolaylaştırır: önceden yönlendirilmiş kabloları yeniden kullanabilirsiniz (sadece bunlara yeni bir alıcı-verici bağlayın).

Ayrıca 100GbE'nin kullanılabilirliği bizi "Yapılar Üzerinden NVMe" (örneğin, Samsung Evo Pro 256 GB NVMe PCIe SSD; bkz. Şekil 4) [8, 10], "Depolama Alanı Ağı" (SAN) gibi yeni teknolojilere hazırlıyor. ) / “Yazılım Tanımlı Depolama” (bkz. Şekil 5) [7], RDMA [11], 100GbE olmadan tam potansiyellerini gerçekleştiremezler.

100GbE: lüks mü yoksa gereklilik mi?
Şekil 4. Samsung Evo Pro 256 GB NVMe PCIe SSD

100GbE: lüks mü yoksa gereklilik mi?
Şekil 5. “Depolama Alanı Ağı” (SAN) / “Yazılım Tanımlı Depolama”

Son olarak, 100GbE ve ilgili yüksek hızlı teknolojilerin kullanımına yönelik pratik talebin egzotik bir örneği olarak, 6GbE (Spectrum) temel alınarak oluşturulan Cambridge Üniversitesi'nin bilimsel bulutunu (bkz. Şekil 100) gösterebiliriz. SN2700 Ethernet anahtarları) - diğer şeylerin yanı sıra, 10/40GbE ağını kolayca aşırı yükleyebilen NexentaEdge SDS dağıtılmış disk depolamanın verimli çalışmasını sağlamak için. [2] Bu tür yüksek performanslı bilimsel bulutlar, çok çeşitli uygulamalı bilimsel problemleri çözmek için kullanılır [9, 12]. Örneğin tıp bilimcileri bu tür bulutları insan genomunun şifresini çözmek için kullanıyor ve 100GbE kanalları üniversite araştırma grupları arasında bilgi aktarımı için kullanılıyor.

100GbE: lüks mü yoksa gereklilik mi?
Şekil 6. Cambridge Üniversitesi bilim bulutunun bir parçası

Kaynakça

  1. John Hawkins. 100GbE: Sınıra Daha Yakın, Gerçeğe Daha Yakın // 2017.
  2. Amit Katz. 100GbE Anahtarlar – Hesabı Yaptınız mı? // 2016.
  3. Margaret Rose. 100 Gigabit Ethernet (100GbE).
  4. David Graves. Dell EMC Açık, Modern Veri Merkezi için 100 Gigabit Ethernet'i İkiye Katlıyor // 2018.
  5. Mary Branscombe. Veri Merkezi Ağlarında 100GbE Yılı // 2018.
  6. Jarred Baker. Kurumsal Veri Merkezinde Daha Hızlı Taşınmak // 2017.
  7. Tom Clark. Depolama Alanı Ağlarının Tasarlanması: Fiber Kanal ve IP SAN'ların Uygulanmasına Yönelik Pratik Bir Referans. 2003. 572s.
  8. James O'Reilly. Ağ Depolama: Şirketinizin Verilerini Depolamaya Yönelik Araçlar ve Teknolojiler // 2017. 280p.
  9. James Sullivan. Öğrenci kümesi yarışması 2017, Austin/Texas Eyalet Üniversitesi'ndeki Team University of Texas: Tersoff çoklu gövde potansiyelinin Intel Skylake ve NVIDIA V100 mimarileri üzerinde vektörleştirilmesi // Paralel Bilgi İşlem. v.79, 2018. s. 30-35.
  10. Manolis Katevenis. Exascale Sınıfı Sistemlerin Yeni Nesil: ExaNeSt Projesi // Mikroişlemciler ve Mikrosistemler. v.61, 2018. s. 58-71.
  11. Hari Subramoni. Ethernet üzerinden RDMA: Bir Ön Çalışma // Dağıtılmış Bilgi İşlem için Yüksek Performanslı Ara Bağlantılar Çalıştayının Bildirileri. 2009.
  12. Chris Broekema. UDP RDMA Yazılımıyla Radyo Astronomisinde Enerji Verimli Veri Aktarımı // Gelecek Nesil Bilgisayar Sistemleri. v.79, 2018. s. 215-224.

PS. Bu makale ilk olarak şu adreste yayınlanmıştır: "Sistem yöneticisi".

Ankete sadece kayıtlı kullanıcılar katılabilir. Giriş yapLütfen.

Büyük veri merkezleri neden toplu olarak 100GbE'ye geçmeye başladı?

  • Aslında henüz kimse bir yere taşınmaya başlamadı...

  • Çünkü bu teknoloji olgunlaştı ve ucuzladı

  • Juniper ve Cisco, 100GbE anahtarlar için ASIC'ler oluşturduğundan

  • Çünkü Broadcom, Cavium ve Mellanox Technologie 100GbE desteğini ekledi

  • Çünkü sunucularda artık 25 ve 40 gigabit bağlantı noktaları var

  • Sürümünüz (yorumlara yazın)

12 kullanıcı oy kullandı. 15 kişi çekimser kaldı.

Kaynak: habr.com

Yorum ekle