Jak ocenić i porównać urządzenia szyfrujące Ethernet

Napisałem tę recenzję (lub, jeśli wolisz, przewodnik porównawczy), kiedy otrzymałem zadanie porównania kilku urządzeń różnych dostawców. Ponadto urządzenia te należały do ​​​​różnych klas. Musiałem zrozumieć architekturę i charakterystykę wszystkich tych urządzeń i stworzyć „układ współrzędnych” do porównania. Będzie mi miło, jeśli moja recenzja komuś pomoże:

  • Zapoznaj się z opisami i specyfikacjami urządzeń szyfrujących
  • Odróżnij cechy „papierowe” od tych, które są naprawdę ważne w prawdziwym życiu
  • Wyjdź poza zwykły zestaw dostawców i uwzględnij wszelkie produkty, które są odpowiednie do rozwiązania problemu
  • Zadawaj właściwe pytania podczas negocjacji
  • Przygotowanie wymagań przetargowych (RFP)
  • Zrozum, jakie cechy będą musiały zostać poświęcone, jeśli zostanie wybrany określony model urządzenia

Co można ocenić

Zasadniczo podejście to można zastosować w przypadku dowolnych samodzielnych urządzeń odpowiednich do szyfrowania ruchu sieciowego pomiędzy zdalnymi segmentami Ethernetu (szyfrowanie między lokacjami). Czyli „pudełka” w osobnej obudowie (no dobra, uwzględnimy tu także kasety/moduły do ​​obudowy), które są połączone poprzez jeden lub więcej portów Ethernet z lokalną (kampusową) siecią Ethernet z ruchem nieszyfrowanym i poprzez kolejny port(y) do kanału/sieci, przez który już zaszyfrowany ruch jest przesyłany do innych, zdalnych segmentów. Takie rozwiązanie szyfrujące można wdrożyć w sieci prywatnej lub operatorskiej za pomocą różnych rodzajów „transportu” (ciemny światłowód, sprzęt z podziałem częstotliwości, komutowany Ethernet, a także „pseudowiry” prowadzone przez sieć o innej architekturze routingu, najczęściej MPLS ), z technologią VPN lub bez.

Jak ocenić i porównać urządzenia szyfrujące Ethernet
Szyfrowanie sieci w rozproszonej sieci Ethernet

Same urządzenia mogą być albo specjalistyczne (przeznaczony wyłącznie do szyfrowania) lub wielofunkcyjny (hybrydowy, zbieżny), czyli pełniący także inne funkcje (na przykład zaporę ogniową lub router). Różni dostawcy klasyfikują swoje urządzenia na różne klasy/kategorie, ale to nie ma znaczenia - jedyną ważną rzeczą jest to, czy potrafią szyfrować ruch między witrynami i jakie mają cechy.

Na wszelki wypadek przypominam, że „szyfrowanie sieci”, „szyfrowanie ruchu”, „szyfrator” to terminy nieformalne, choć często używane. Najprawdopodobniej nie znajdziesz ich w rosyjskich przepisach (także tych, które wprowadzają GOST).

Poziomy szyfrowania i tryby transmisji

Zanim zaczniemy opisywać same cechy, które zostaną wykorzystane do oceny, najpierw będziemy musieli zrozumieć jedną ważną rzecz, a mianowicie „poziom szyfrowania”. Zauważyłem, że często wspomina się o tym zarówno w oficjalnych dokumentach dostawców (w opisach, instrukcjach itp.), jak i w nieformalnych dyskusjach (w negocjacjach, szkoleniach). To znaczy, wydaje się, że wszyscy doskonale wiedzą, o czym mówimy, ale ja osobiście byłem świadkiem pewnego zamieszania.

Czym zatem jest „poziom szyfrowania”? Jasne jest, że mówimy o numerze warstwy modelu sieci referencyjnej OSI/ISO, w której następuje szyfrowanie. Czytamy GOST R ISO 7498-2–99 „Technologie informacyjne. Wzajemne połączenie systemów otwartych. Podstawowy model referencyjny. Część 2. Architektura bezpieczeństwa informacji.” Z tego dokumentu można zrozumieć, że poziom usługi poufności (jednym z mechanizmów świadczenia, jakim jest szyfrowanie) to poziom protokołu, którego blok danych usługi („ładunek”, dane użytkownika) jest szyfrowany. Jak też jest napisane w standardzie, usługę można świadczyć zarówno na tym samym poziomie, „samodzielnie”, jak i za pomocą niższego poziomu (tak jest to najczęściej realizowane np. w MACsec) .

W praktyce możliwe są dwa tryby przesyłania zaszyfrowanych informacji przez sieć (od razu przychodzi mi na myśl IPsec, ale te same tryby spotyka się także w innych protokołach). W transport (czasami nazywany także trybem natywnym) jest tylko szyfrowany usługa blok danych, a nagłówki pozostają „otwarte”, niezaszyfrowane (czasami dodawane są dodatkowe pola z informacjami serwisowymi algorytmu szyfrowania, a inne pola są modyfikowane i przeliczane). W tunel ten sam tryb, wszystko protokół blok danych (czyli sam pakiet) jest szyfrowany i hermetyzowany w bloku danych usługi tego samego lub wyższego poziomu, to znaczy jest otoczony nowymi nagłówkami.

Sam poziom szyfrowania w połączeniu z jakimś trybem transmisji nie jest ani dobry, ani zły, więc nie można na przykład powiedzieć, że L3 w trybie transportowym jest lepszy niż L2 w trybie tunelowym. Po prostu wiele cech, według których oceniane są urządzenia, zależy od nich. Na przykład elastyczność i kompatybilność. Do pracy w sieci L1 (przekaźnik strumienia bitów), L2 (przełączanie ramek) i L3 (trasowanie pakietów) w trybie transportowym potrzebne są rozwiązania szyfrujące na tym samym lub wyższym poziomie (w przeciwnym razie informacje adresowe zostaną zaszyfrowane, a dane nie dotrze do zamierzonego celu), a tryb tunelowy pokonuje to ograniczenie (chociaż poświęca inne ważne cechy).

Jak ocenić i porównać urządzenia szyfrujące Ethernet
Tryby szyfrowania transportowego i tunelowego L2

Przejdźmy teraz do analizy cech.

produktywność

W przypadku szyfrowania sieci wydajność jest pojęciem złożonym i wielowymiarowym. Zdarza się, że dany model, lepszy pod względem jednej cechy użytkowej, jest gorszy w innym. Dlatego zawsze warto rozważyć wszystkie elementy wydajności szyfrowania i ich wpływ na wydajność sieci i korzystających z niej aplikacji. Można tu narysować analogię z samochodem, dla którego ważna jest nie tylko prędkość maksymalna, ale także czas przyspieszania do „setek”, zużycie paliwa i tak dalej. Firmy-dostawcy i ich potencjalni klienci przywiązują dużą wagę do charakterystyki wydajności. Z reguły urządzenia szyfrujące są klasyfikowane na podstawie wydajności w liniach dostawców.

Oczywiste jest, że wydajność zależy zarówno od złożoności operacji sieciowych i kryptograficznych wykonywanych na urządzeniu (w tym od tego, jak dobrze te zadania można zrównoleglić i potokować), a także od wydajności sprzętu i jakości oprogramowania sprzętowego. Dlatego starsze modele wykorzystują bardziej wydajny sprzęt, czasami można go wyposażyć w dodatkowe procesory i moduły pamięci. Istnieje kilka podejść do wdrażania funkcji kryptograficznych: na jednostce centralnej ogólnego przeznaczenia (CPU), układzie scalonym specyficznym dla aplikacji (ASIC) lub układzie scalonym logicznym programowalnym przez użytkownika (FPGA). Każde podejście ma swoje zalety i wady. Na przykład procesor może stać się wąskim gardłem szyfrowania, zwłaszcza jeśli procesor nie ma specjalistycznych instrukcji obsługujących algorytm szyfrowania (lub jeśli nie są one używane). Wyspecjalizowanym chipom brakuje elastyczności, nie zawsze można je „przeflashować” w celu poprawy wydajności, dodania nowych funkcji lub wyeliminowania luk. Ponadto ich stosowanie staje się opłacalne tylko przy dużych wolumenach produkcji. Dlatego tak popularny stał się „złoty środek” - zastosowanie FPGA (po rosyjsku FPGA). To właśnie na układach FPGA powstają tzw. akceleratory kryptograficzne – wbudowane lub wtykowe specjalistyczne moduły sprzętowe służące do wspierania operacji kryptograficznych.

Skoro o tym mówimy sieć szyfrowania logiczne jest, że wydajność rozwiązań należy mierzyć w tych samych wielkościach, co w przypadku innych urządzeń sieciowych - przepustowość, procent utraty ramek i opóźnienia. Wartości te są zdefiniowane w dokumencie RFC 1242. Swoją drogą, w tym dokumencie RFC nie jest napisane nic o często wspominanej zmienności opóźnienia (jitter). Jak zmierzyć te wielkości? Nie znalazłem metodologii zatwierdzonej w żadnych standardach (oficjalnych lub nieoficjalnych, takich jak RFC) specjalnie dla szyfrowania sieci. Logiczne byłoby zastosowanie metodologii dla urządzeń sieciowych zapisanej w standardzie RFC 2544. Wielu dostawców ją stosuje – wielu, ale nie wszyscy. Na przykład wysyłają ruch testowy tylko w jednym kierunku, a nie w obu Zalecana standard. W każdym razie.

Pomiar wydajności urządzeń szyfrujących sieć nadal ma swoją własną charakterystykę. Po pierwsze, prawidłowe jest przeprowadzenie wszystkich pomiarów dla pary urządzeń: chociaż algorytmy szyfrowania są symetryczne, opóźnienia i straty pakietów podczas szyfrowania i deszyfrowania niekoniecznie będą równe. Po drugie, warto zmierzyć deltę, wpływ szyfrowania sieci na końcową wydajność sieci, porównując dwie konfiguracje: bez urządzeń szyfrujących i z nimi. Lub, jak ma to miejsce w przypadku urządzeń hybrydowych, które oprócz szyfrowania sieci łączą w sobie kilka funkcji, przy wyłączonym i włączonym szyfrowaniu. Wpływ ten może być różny i zależeć od schematu połączenia urządzeń szyfrujących, trybów pracy i wreszcie charakteru ruchu. W szczególności wiele parametrów wydajnościowych zależy od długości pakietów, dlatego do porównania wydajności różnych rozwiązań często wykorzystuje się wykresy tych parametrów w zależności od długości pakietów lub wykorzystuje się IMIX – rozkład ruchu według pakietu długości, która w przybliżeniu odzwierciedla rzeczywistą. Jeśli porównamy tę samą podstawową konfigurację bez szyfrowania, możemy porównać rozwiązania szyfrowania sieci realizowane w różny sposób, bez wchodzenia w te różnice: L2 z L3, store-and-forward) z przecięciem, specjalizowane z konwergentnym, GOST z AES i tak dalej.

Jak ocenić i porównać urządzenia szyfrujące Ethernet
Schemat połączeń do testowania wydajności

Pierwszą cechą, na którą ludzie zwracają uwagę, jest „szybkość” urządzenia szyfrującego przepustowość łącza (przepustowość) interfejsów sieciowych, przepływ bitów. Jest to określane na podstawie standardów sieciowych obsługiwanych przez interfejsy. W przypadku sieci Ethernet typowe wartości to 1 Gb/s i 10 Gb/s. Ale, jak wiemy, w każdej sieci maksimum teoretyczne wydajność (przepustowość) na każdym poziomie przepustowość jest zawsze mniejsza: część przepustowości jest „pochłaniana” przez odstępy międzyramkowe, nagłówki usług i tak dalej. Jeżeli urządzenie jest w stanie odbierać, przetwarzać (w naszym przypadku szyfrować lub deszyfrować) i przesyłać ruch z pełną prędkością interfejsu sieciowego, czyli przy maksymalnej teoretycznej przepustowości dla tego poziomu modelu sieci, to mówi się, że pracować z prędkością linii. Aby to zrobić, konieczne jest, aby urządzenie nie gubiło ani nie odrzucało pakietów dowolnego rozmiaru i żadnej częstotliwości. Jeśli urządzenie szyfrujące nie obsługuje pracy z szybkością linii, wówczas jego maksymalną przepustowość podaje się zwykle w tych samych gigabitach na sekundę (czasami wskazując długość pakietów – im krótsze pakiety, tym zwykle niższa jest przepustowość). Bardzo ważne jest, aby zrozumieć, że maksymalna przepustowość jest maksymalna bez strat (nawet jeśli urządzenie może „przepompowywać” przez siebie ruch z większą prędkością, ale jednocześnie traci część pakietów). Należy także pamiętać, że niektórzy dostawcy mierzą całkowitą przepustowość pomiędzy wszystkimi parami portów, więc liczby te nie mają większego znaczenia, jeśli cały zaszyfrowany ruch przechodzi przez jeden port.

Gdzie szczególnie ważne jest działanie z szybkością łącza (czyli innymi słowy bez utraty pakietów)? W przypadku łączy o dużej przepustowości i dużych opóźnieniach (takich jak satelity), gdzie należy ustawić duży rozmiar okna TCP, aby utrzymać wysokie prędkości transmisji, i gdzie utrata pakietów drastycznie zmniejsza wydajność sieci.

Ale nie cała przepustowość jest wykorzystywana do przesyłania przydatnych danych. Musimy się liczyć z tzw koszty ogólne (narzutowa) przepustowość. Jest to część przepustowości urządzenia szyfrującego (wyrażona jako procent lub bajty na pakiet), która jest faktycznie marnowana (nie można jej używać do przesyłania danych aplikacji). Koszty ogólne powstają po pierwsze w wyniku zwiększenia rozmiaru (dodania, „upychania”) pola danych w zaszyfrowanych pakietach sieciowych (w zależności od algorytmu szyfrowania i trybu jego działania). Po drugie, ze względu na wzrost długości nagłówków pakietów (tryb tunelowy, wstawienie usługi protokołu szyfrowania, wstawienie symulacji itp. w zależności od protokołu i trybu działania szyfru oraz trybu transmisji) - zwykle te koszty ogólne stanowią najważniejsze i to oni zwracają uwagę jako pierwsi. Po trzecie, z powodu fragmentacji pakietów po przekroczeniu maksymalnego rozmiaru jednostki danych (MTU) (jeśli sieć jest w stanie podzielić pakiet przekraczający MTU na dwie części, duplikując jego nagłówki). Po czwarte, ze względu na pojawienie się w sieci dodatkowego ruchu usługowego (kontrolnego) pomiędzy urządzeniami szyfrującymi (w celu wymiany kluczy, instalacji tuneli itp.). Niski narzut jest ważny tam, gdzie przepustowość kanału jest ograniczona. Jest to szczególnie widoczne w przypadku ruchu z małych pakietów, np. głosu – gdzie koszty ogólne mogą „pochłonąć” ponad połowę prędkości kanału!

Jak ocenić i porównać urządzenia szyfrujące Ethernet
Przepustowość

Wreszcie jest więcej wprowadzone opóźnienie – różnica (w ułamkach sekundy) opóźnienia sieci (czasu potrzebnego na przejście danych od wejścia do sieci do jej opuszczenia) pomiędzy transmisją danych bez i z szyfrowaniem sieci. Ogólnie rzecz biorąc, im mniejsze opóźnienie („opóźnienie”) sieci, tym większe staje się opóźnienie wprowadzane przez urządzenia szyfrujące. Opóźnienie wprowadzane jest przez samą operację szyfrowania (w zależności od algorytmu szyfrowania, długości bloku i trybu działania szyfru, a także od jakości jego implementacji w oprogramowaniu) oraz przetwarzanie pakietu sieciowego w urządzeniu . Wprowadzone opóźnienie zależy zarówno od trybu przetwarzania pakietów (przekazywanie lub przechowywanie i przesyłanie), jak i wydajności platformy (implementacja sprzętowa na FPGA lub ASIC jest generalnie szybsza niż implementacja programowa na procesorze). Szyfrowanie L2 prawie zawsze ma mniejsze opóźnienia niż szyfrowanie L3 lub L4, ze względu na fakt, że urządzenia szyfrujące L3/L4 są często konwergentne. Na przykład, w przypadku szybkich szyfratorów Ethernet zaimplementowanych na układach FPGA i szyfrujących na L2, opóźnienie spowodowane operacją szyfrowania jest znikomo małe - czasami, gdy szyfrowanie jest włączone na parze urządzeń, całkowite wprowadzone przez nie opóźnienie nawet maleje! Małe opóźnienie jest ważne, gdy jest porównywalne z całkowitymi opóźnieniami kanału, w tym opóźnieniem propagacji, które wynosi około 5 μs na kilometr. Oznacza to, że w przypadku sieci miejskich (o średnicy kilkudziesięciu kilometrów) wiele mogą decydować mikrosekundy. Na przykład w przypadku synchronicznej replikacji baz danych, handlu o wysokiej częstotliwości, ten sam łańcuch bloków.

Jak ocenić i porównać urządzenia szyfrujące Ethernet
Wprowadzono opóźnienie

Skalowalność

Duże sieci rozproszone mogą obejmować wiele tysięcy węzłów i urządzeń sieciowych, setki segmentów sieci lokalnej. Ważne jest, aby rozwiązania szyfrujące nie nakładały dodatkowych ograniczeń na wielkość i topologię sieci rozproszonej. Dotyczy to przede wszystkim maksymalnej liczby adresów hostów i sieci. Takie ograniczenia można napotkać na przykład podczas wdrażania topologii sieci z szyfrowaniem wielopunktowym (z niezależnymi bezpiecznymi połączeniami lub tunelami) lub szyfrowania selektywnego (na przykład według numeru protokołu lub sieci VLAN). Jeśli w tym przypadku adresy sieciowe (MAC, IP, VLAN ID) zostaną użyte jako klucze w tabeli, w której liczba wierszy jest ograniczona, to ograniczenia te pojawią się tutaj.

Ponadto duże sieci często mają kilka warstw strukturalnych, w tym sieć rdzeniową, z których każda wdraża własny schemat adresowania i własną politykę routingu. Aby wdrożyć to podejście, często stosuje się specjalne formaty ramek (takie jak Q-in-Q lub MAC-in-MAC) i protokoły wyznaczania tras. Aby nie utrudniać budowy takich sieci, urządzenia szyfrujące muszą poprawnie obsługiwać takie ramki (czyli w tym sensie skalowalność będzie oznaczać kompatybilność - o tym poniżej).

Гибкость

Mówimy tutaj o wspieraniu różnych konfiguracji, schematów połączeń, topologii i innych rzeczy. Przykładowo dla sieci przełączanych opartych na technologiach Carrier Ethernet oznacza to obsługę różnych typów połączeń wirtualnych (E-Line, E-LAN, E-Tree), różnych rodzajów usług (zarówno po porcie, jak i VLAN) oraz różnych technologii transportowych (już wymienione powyżej). Oznacza to, że urządzenie musi mieć możliwość działania zarówno w trybie liniowym („punkt-punkt”), jak i wielopunktowym, ustanawiać oddzielne tunele dla różnych sieci VLAN i umożliwiać dostarczanie pakietów poza kolejnością w bezpiecznym kanale. Możliwość wyboru różnych trybów szyfrowania (w tym z uwierzytelnianiem treści lub bez) oraz różnych trybów transmisji pakietów pozwala znaleźć równowagę pomiędzy siłą i wydajnością w zależności od bieżących warunków.

Ważne jest także wsparcie zarówno sieci prywatnych, których sprzęt jest własnością jednej organizacji (lub jej wynajmowany), jak i sieci operatorskich, których różnymi segmentami zarządzają różne firmy. Dobrze, jeśli rozwiązanie umożliwia zarządzanie zarówno we własnym zakresie, jak i przez stronę trzecią (z wykorzystaniem modelu usług zarządzanych). W sieciach operatorskich kolejną ważną funkcją jest obsługa multitenancy (współdzielenia przez różnych klientów) w formie kryptograficznej izolacji poszczególnych klientów (abonentów), których ruch przechodzi przez ten sam zestaw urządzeń szyfrujących. Zwykle wymaga to użycia oddzielnych zestawów kluczy i certyfikatów dla każdego klienta.

Jeśli urządzenie zostanie zakupione pod konkretny scenariusz, wszystkie te funkcje mogą nie być bardzo ważne - wystarczy upewnić się, że urządzenie obsługuje to, czego potrzebujesz w danej chwili. Jeśli jednak rozwiązanie zostanie zakupione „na rozwój”, aby wspierać także przyszłe scenariusze i zostanie wybrane jako „standard korporacyjny”, wówczas elastyczność nie będzie zbędna - zwłaszcza biorąc pod uwagę ograniczenia dotyczące interoperacyjności urządzeń różnych dostawców ( więcej na ten temat poniżej).

Łatwość i wygoda

Łatwość obsługi to także koncepcja wieloczynnikowa. W przybliżeniu można powiedzieć, że jest to całkowity czas spędzony przez specjalistów o określonych kwalifikacjach potrzebnych do wsparcia rozwiązania na różnych etapach jego cyklu życia. Jeśli nie ma żadnych kosztów, a instalacja, konfiguracja i obsługa są całkowicie automatyczne, to koszty są zerowe, a wygoda absolutna. Oczywiście nie dzieje się to w prawdziwym świecie. Rozsądnym przybliżeniem jest model „węzeł na drucie” (bump-in-the-wire), czyli połączenie przezroczyste, w którym dodawanie i wyłączanie urządzeń szyfrujących nie wymaga ręcznych ani automatycznych zmian w konfiguracji sieci. Jednocześnie utrzymanie rozwiązania jest uproszczone: można bezpiecznie włączać i wyłączać funkcję szyfrowania, a w razie potrzeby po prostu „ominąć” urządzenie za pomocą kabla sieciowego (czyli bezpośrednio podłączyć te porty sprzętu sieciowego, do którego było podłączone). To prawda, że ​​​​jest jedna wada - atakujący może zrobić to samo. Aby wdrożyć zasadę „węzła na przewodzie”, należy wziąć pod uwagę nie tylko ruch warstwa danychAle warstwy kontroli i zarządzania – urządzenia muszą być dla nich przezroczyste. Dlatego taki ruch można zaszyfrować tylko wtedy, gdy w sieci pomiędzy urządzeniami szyfrującymi nie ma odbiorców tego typu ruchu, ponieważ jeśli zostanie on odrzucony lub zaszyfrowany, to po włączeniu lub wyłączeniu szyfrowania konfiguracja sieci może się zmienić. Urządzenie szyfrujące może być również przezroczyste dla sygnalizacji warstwy fizycznej. W szczególności, gdy sygnał zostanie utracony, musi on przesłać tę stratę (to znaczy wyłączyć swoje nadajniki) tam i z powrotem („dla siebie”) w kierunku sygnału.

Ważne jest także wsparcie w podziale uprawnień pomiędzy działem bezpieczeństwa informacji a działem IT, w szczególności działem sieciowym. Rozwiązanie szyfrujące musi obsługiwać model kontroli dostępu i audytu organizacji. Należy zminimalizować potrzebę interakcji między różnymi działami w celu wykonywania rutynowych operacji. Dlatego też wyspecjalizowane urządzenia, które obsługują wyłącznie funkcje szyfrowania i są możliwie jak najbardziej przejrzyste dla operacji sieciowych, mają przewagę pod względem wygody. Mówiąc najprościej, pracownicy zajmujący się bezpieczeństwem informacji nie powinni mieć powodu kontaktować się ze „specjalistami sieciowymi” w celu zmiany ustawień sieciowych. A ci z kolei nie powinni mieć konieczności zmiany ustawień szyfrowania podczas konserwacji sieci.

Kolejnym czynnikiem są możliwości i wygoda sterowania. Powinny być wizualne, logiczne, zapewniać import-eksport ustawień, automatyzację i tak dalej. Należy od razu zwrócić uwagę na to, jakie opcje zarządzania są dostępne (zazwyczaj własne środowisko zarządzania, interfejs WWW i linia poleceń) oraz jaki zestaw funkcji posiada każda z nich (istnieją ograniczenia). Ważną funkcją jest wsparcie poza pasmem sterowanie (poza pasmem), to znaczy poprzez dedykowaną sieć sterowania, oraz w paśmie kontrola (wewnątrzpasmowa), to znaczy poprzez wspólną sieć, przez którą przesyłany jest użyteczny ruch. Narzędzia zarządzające muszą sygnalizować wszystkie nietypowe sytuacje, w tym incydenty związane z bezpieczeństwem informacji. Rutynowe, powtarzalne operacje powinny być wykonywane automatycznie. Dotyczy to przede wszystkim kluczowego kierownictwa. Powinny być generowane/rozpowszechniane automatycznie. Obsługa PKI to duży plus.

Zgodność

Oznacza to zgodność urządzenia ze standardami sieciowymi. Co więcej, oznacza to nie tylko standardy przemysłowe przyjęte przez autorytatywne organizacje, takie jak IEEE, ale także autorskie protokoły liderów branży, takich jak Cisco. Istnieją dwa główne sposoby zapewnienia kompatybilności: albo poprzez przejrzystośćlub przez wyraźne wsparcie protokoły (kiedy urządzenie szyfrujące staje się jednym z węzłów sieciowych dla określonego protokołu i przetwarza ruch kontrolny tego protokołu). Kompatybilność z sieciami zależy od kompletności i poprawności implementacji protokołów sterujących. Ważne jest, aby wspierać różne opcje poziomu PHY (prędkość, medium transmisji, schemat kodowania), ramki Ethernet w różnych formatach z dowolnym MTU, różne protokoły usług L3 (przede wszystkim rodzina TCP/IP).

Przejrzystość zapewniona jest poprzez mechanizmy mutacji (tymczasowa zmiana zawartości otwartych nagłówków w ruchu pomiędzy programami szyfrującymi), pomijania (gdy poszczególne pakiety pozostają niezaszyfrowane) oraz wcięcia początku szyfrowania (gdy normalnie zaszyfrowane pola pakietów nie są szyfrowane).

Jak ocenić i porównać urządzenia szyfrujące Ethernet
Jak zapewniona jest przejrzystość

Dlatego zawsze sprawdź dokładnie, w jaki sposób zapewniona jest obsługa konkretnego protokołu. Często obsługa w trybie przezroczystym jest wygodniejsza i niezawodniejsza.

Interoperacyjność

To także kompatybilność, ale w innym sensie, a mianowicie możliwość współpracy z innymi modelami urządzeń szyfrujących, także tych innych producentów. Wiele zależy od stanu standaryzacji protokołów szyfrowania. Po prostu nie ma ogólnie przyjętych standardów szyfrowania na L1.

Istnieje standard 2ae (MACsec) szyfrowania L802.1 w sieciach Ethernet, ale nie wykorzystuje on koniec końców (od końca do końca) i interport, szyfrowanie „hop-by-hop”, a w swojej pierwotnej wersji nie nadaje się do stosowania w sieciach rozproszonych, dlatego pojawiły się jego autorskie rozszerzenia, które pokonują to ograniczenie (oczywiście ze względu na współpracę ze sprzętem innych producentów). Co prawda w 2018 roku do standardu 802.1ae dodano obsługę sieci rozproszonych, ale nadal nie ma obsługi zestawów algorytmów szyfrowania GOST. Dlatego autorskie, niestandardowe protokoły szyfrowania L2 z reguły wyróżniają się większą wydajnością (w szczególności mniejszym obciążeniem przepustowości) i elastycznością (możliwość zmiany algorytmów i trybów szyfrowania).

Na wyższych poziomach (L3 i L4) obowiązują uznane standardy, przede wszystkim IPsec i TLS, ale i tutaj nie jest to takie proste. Faktem jest, że każdy z tych standardów jest zbiorem protokołów, każdy z różnymi wersjami i rozszerzeniami wymaganymi lub opcjonalnymi do wdrożenia. Ponadto niektórzy producenci wolą używać własnych protokołów szyfrowania na L3/L4. Dlatego w większości przypadków nie należy liczyć na pełną interoperacyjność, ważne jest jednak, aby zapewniona była przynajmniej interakcja pomiędzy różnymi modelami i różnymi generacjami tego samego producenta.

Niezawodność

Aby porównać różne rozwiązania, możesz użyć średniego czasu między awariami lub współczynnika dostępności. Jeśli te liczby nie są dostępne (lub nie ma do nich zaufania), można dokonać porównania jakościowego. Zaletą będą urządzenia z wygodnym zarządzaniem (mniejsze ryzyko błędów konfiguracyjnych), wyspecjalizowane szyfratory (z tego samego powodu), a także rozwiązania charakteryzujące się minimalnym czasem wykrycia i wyeliminowania awarii, w tym sposoby „gorącego” tworzenia kopii zapasowych całych węzłów i urządzenia.

Kosztować

Jeśli chodzi o koszty, podobnie jak w przypadku większości rozwiązań IT, warto porównać całkowity koszt posiadania. Aby to obliczyć, nie trzeba wymyślać koła na nowo, wystarczy skorzystać z dowolnej odpowiedniej metodologii (na przykład od Gartnera) i dowolnego kalkulatora (na przykład tego, który jest już używany w organizacji do obliczania TCO). Oczywiste jest, że w przypadku rozwiązania do szyfrowania sieci całkowity koszt jego posiadania obejmuje bezpośredni koszty zakupu lub wynajmu samego rozwiązania, infrastruktury do sprzętu hostingowego oraz koszty wdrożenia, administracji i utrzymania (zarówno we własnym zakresie, jak i w formie usług zewnętrznych), a także pośredni koszty wynikające z przestoju rozwiązania (spowodowanego utratą produktywności użytkownika końcowego). Prawdopodobnie jest tylko jedna subtelność. Wpływ rozwiązania na wydajność można rozpatrywać na różne sposoby: albo jako koszty pośrednie spowodowane utratą produktywności, albo jako „wirtualne” bezpośrednie koszty zakupu/modernizacji i utrzymania narzędzi sieciowych, które rekompensują utratę wydajności sieci wynikającą z użycia szyfrowanie. W każdym razie wydatki, które trudno obliczyć z wystarczającą dokładnością, najlepiej pominąć w obliczeniach: w ten sposób będzie większa pewność co do wartości końcowej. I jak zwykle w każdym przypadku warto porównać różne urządzenia pod względem TCO pod kątem konkretnego scenariusza ich użytkowania – rzeczywistego lub typowego.

Trwałość

Ostatnią cechą jest trwałość rozwiązania. W większości przypadków trwałość można ocenić jedynie jakościowo, porównując różne rozwiązania. Musimy pamiętać, że urządzenia szyfrujące to nie tylko środek, ale i przedmiot ochrony. Mogą być narażeni na różne zagrożenia. Na pierwszy plan wysuwają się zagrożenia związane z naruszeniem poufności, powielaniem i modyfikacją przekazów. Zagrożenia te mogą być realizowane poprzez podatności szyfru lub jego poszczególnych trybów, poprzez podatności w protokołach szyfrowania (m.in. na etapach nawiązywania połączenia i generowania/dystrybucji kluczy). Zaletą będą rozwiązania umożliwiające zmianę algorytmu szyfrowania lub przełączenie trybu szyfrowania (przynajmniej poprzez aktualizację oprogramowania sprzętowego), rozwiązania zapewniające najpełniejsze szyfrowanie, ukrywające przed atakującym nie tylko dane użytkownika, ale także adres i inne informacje serwisowe , a także rozwiązania techniczne, które nie tylko szyfrują, ale także chronią wiadomości przed powielaniem i modyfikacją. W przypadku wszystkich nowoczesnych algorytmów szyfrowania, podpisów elektronicznych, generowania kluczy itp., które są zapisane w standardach, można założyć, że siła jest taka sama (w przeciwnym razie można po prostu zagubić się w dziczy kryptografii). Czy koniecznie muszą to być algorytmy GOST? Tutaj wszystko jest proste: jeśli scenariusz zastosowania wymaga certyfikacji FSB dla CIPF (a w Rosji tak jest najczęściej; w przypadku większości scenariuszy szyfrowania sieci jest to prawdą), to wybieramy tylko pomiędzy certyfikowanymi. Jeśli nie, to nie ma sensu wykluczać z rozważań urządzeń bez certyfikatów.

Kolejnym zagrożeniem jest groźba włamania, nieuprawnionego dostępu do urządzeń (w tym poprzez dostęp fizyczny na zewnątrz i wewnątrz obudowy). Groźbę można przeprowadzić poprzez
luki w implementacji - w sprzęcie i kodzie. Dlatego rozwiązania o minimalnej „powierzchni ataku” poprzez sieć, z obudowami chronionymi przed fizycznym dostępem (z czujnikami włamania, ochroną sondującą i automatycznym resetowaniem kluczowych informacji po otwarciu obudowy), a także te, które umożliwiają aktualizację oprogramowania sprzętowego, będą miały korzyść w przypadku wykrycia luki w kodzie. Jest inny sposób: jeśli wszystkie porównywane urządzenia posiadają certyfikaty FSB, wówczas klasę CIPF, dla której wydano certyfikat, można uznać za wskaźnik odporności na włamania.

Wreszcie innym rodzajem zagrożenia są błędy podczas konfiguracji i obsługi, czyli czynnik ludzki w najczystszej postaci. Pokazuje to kolejną przewagę wyspecjalizowanych programów szyfrujących nad rozwiązaniami konwergentnymi, które często są skierowane do doświadczonych „specjalistów sieciowych” i mogą sprawiać trudności „zwykłym”, ogólnym specjalistom ds. bezpieczeństwa informacji.

Podsumowując

Zasadniczo można tutaj zaproponować jakiś integralny wskaźnik do porównywania różnych urządzeń, coś w tym rodzaju

$$wyświetlacz$$K_j=∑p_i r_{ij}$$wyświetlacz$$

gdzie p jest wagą wskaźnika, r jest rangą urządzenia według tego wskaźnika, a każdą z wymienionych powyżej cech można podzielić na wskaźniki „atomowe”. Taka formuła może być przydatna np. przy porównywaniu ofert przetargowych według wcześniej ustalonych zasad. Ale możesz sobie poradzić z prostym stołem, takim jak

Charakteryzacja
Urządzenie 1
Urządzenie 2
...
Urządzenie nr

Przepustowość
+
+

+ + +

Koszty ogólne
+
++

+ + +

Opóźnienie
+
+

++

Skalowalność
+ + +
+

+ + +

Гибкость
+ + +
++

+

Interoperacyjność
++
+

+

Zgodność
++
++

+ + +

Łatwość i wygoda
+
+

++

tolerancja błędów
+ + +
+ + +

++

Kosztować
++
+ + +

+

Trwałość
++
++

+ + +

Chętnie odpowiem na pytania i konstruktywną krytykę.

Źródło: www.habr.com

Dodaj komentarz