Nowe technologie przechowywania danych: czy w 2020 roku czeka nas przełom?

Od kilkudziesięciu lat postęp w technologii pamięci masowej mierzony jest przede wszystkim pojemnością pamięci i szybkością odczytu/zapisu danych. Z biegiem czasu te parametry oceny zostały uzupełnione technologiami i metodologiami, dzięki którym dyski HDD i SSD są inteligentniejsze, bardziej elastyczne i łatwiejsze w zarządzaniu. Co roku producenci dysków tradycyjnie dają do zrozumienia, że ​​rynek dużych zbiorów danych ulegnie zmianom i rok 2020 nie jest wyjątkiem. Liderzy IT coraz częściej poszukują wydajnych sposobów przechowywania i zarządzania ogromnymi ilościami danych i po raz kolejny obiecują zmienić bieg systemów przechowywania danych. W tym artykule zebraliśmy najbardziej zaawansowane technologie przechowywania informacji, a także omówimy koncepcje futurystycznych urządzeń pamięci masowej, które nie znalazły jeszcze fizycznego wdrożenia.

Nowe technologie przechowywania danych: czy w 2020 roku czeka nas przełom?

Sieci pamięci masowej definiowane programowo

Jeśli chodzi o automatyzację, elastyczność i zwiększoną pojemność pamięci masowej w połączeniu ze zwiększoną wydajnością personelu, coraz więcej przedsiębiorstw rozważa przejście na tzw. sieci pamięci masowej definiowane programowo lub SDS (Software-Defined Storage).

Nowe technologie przechowywania danych: czy w 2020 roku czeka nas przełom?

Kluczową cechą technologii SDS jest oddzielenie sprzętu od oprogramowania: to znaczy wirtualizacja funkcji pamięci masowej. Dodatkowo, w przeciwieństwie do konwencjonalnych systemów pamięci masowej podłączonych do sieci (NAS) lub sieci pamięci masowej (SAN), SDS jest zaprojektowany do pracy na każdym standardowym systemie x86. Dość często celem wdrożenia SDS jest poprawa kosztów operacyjnych (OpEx), wymagając jednocześnie mniejszego wysiłku administracyjnego.

Pojemność dysków HDD wzrośnie do 32 TB

Tradycyjne nośniki magnetyczne wcale nie są martwe, a wręcz przeżywają renesans technologiczny. Nowoczesne dyski twarde mogą już zaoferować użytkownikom aż 16 TB przestrzeni na dane. W ciągu najbliższych pięciu lat pojemność ta ulegnie podwojeniu. Jednocześnie dyski twarde pozostaną najtańszą pamięcią masową o dostępie swobodnym i przez wiele lat zachowają prymat w zakresie ceny za gigabajt przestrzeni dyskowej.

Zwiększenie mocy będzie oparte na znanych już technologiach:

  • Napędy helowe (hel zmniejsza opór aerodynamiczny i turbulencje, umożliwiając instalację większej liczby płytek magnetycznych w napędzie; wytwarzanie ciepła i zużycie energii nie zwiększają się);
  • Napędy termomagnetyczne (lub HAMR HDD, których pojawienie się spodziewane jest w 2021 roku i zbudowane jest na zasadzie mikrofalowego zapisu danych, gdy część dysku jest podgrzewana laserem i ponownie namagnesowana);
  • Dysk twardy oparty na zapisie kafelkowym (lub napędach SMR, gdzie ścieżki danych są ułożone jedna na drugiej, w formacie kafelkowym; zapewnia to dużą gęstość zapisu informacji).

Dyski helowe są szczególnie poszukiwane w centrach danych w chmurze, a dyski twarde SMR są optymalne do przechowywania dużych archiwów i bibliotek danych, uzyskiwania dostępu i aktualizowania danych, które nie są wymagane zbyt często. Idealnie nadają się również do tworzenia kopii zapasowych.

Dyski NVMe staną się jeszcze szybsze

Pierwsze dyski SSD podłączano do płyt głównych poprzez interfejs SATA lub SAS, jednak interfejsy te zostały opracowane już ponad 10 lat temu dla magnetycznych dysków HDD. Nowoczesny protokół NVMe to znacznie mocniejszy protokół komunikacyjny przeznaczony dla systemów zapewniających dużą prędkość przetwarzania danych. W rezultacie na przełomie lat 2019-2020 obserwujemy poważny spadek cen dysków SSD NVMe, które stają się dostępne dla każdej klasy użytkowników. W segmencie korporacyjnym rozwiązania NVMe są szczególnie cenione przez te przedsiębiorstwa, które potrzebują analizować Big Data w czasie rzeczywistym.

Firmy takie jak Kingston i Samsung pokazały już, czego mogą spodziewać się użytkownicy korporacyjni w 2020 roku: wszyscy czekamy, aż dyski SSD NVMe z obsługą PCIe 4.0 zapewnią jeszcze większą prędkość przetwarzania danych w centrum danych. Deklarowana wydajność nowych produktów wynosi 4,8 GB/s i jest to wynik daleki od limitu. Następne pokolenia Kingston NVMe SSD PCIe gen 4.0 będzie w stanie zapewnić przepustowość na poziomie 7 GB/s.

Nowe technologie przechowywania danych: czy w 2020 roku czeka nas przełom?

Dzięki specyfikacji NVMe-oF (lub NVMe over Fabrics) organizacje będą mogły tworzyć wysokowydajne sieci pamięci masowej przy minimalnych opóźnieniach, które będą silnie konkurować z centrami danych DAS (lub pamięcią masową podłączaną bezpośrednio). Jednocześnie dzięki zastosowaniu NVMe-oF operacje we/wy są przetwarzane wydajniej, a opóźnienia są porównywalne z systemami DAS. Analitycy przewidują, że wdrażanie systemów działających w oparciu o protokół NVMe-oF gwałtownie przyspieszy w 2020 roku.

Czy pamięć QLC w końcu będzie działać?

Pamięci flash NAND Quad Level Cell (QLC) również będą zyskiwać coraz większą popularność na rynku. QLC zostało wprowadzone w 2019 r. i dlatego spotkało się z minimalnym przyjęciem na rynku. To się zmieni w 2020 roku, szczególnie wśród firm, które przyjęły technologię LightOS Global Flash Translation Layer (GFTL), aby przezwyciężyć nieodłączne wyzwania związane z QLC.

Według prognoz analityków wzrost sprzedaży dysków SSD opartych na ogniwach QLC wzrośnie o 10%, a rozwiązania TLC „zdobędą” 85% rynku. Cokolwiek by się nie mówiło, QLC SSD nadal pozostaje daleko w tyle pod względem wydajności w porównaniu do TLC SSD i nie stanie się podstawą centrów danych w ciągu najbliższych pięciu lat.

Nowe technologie przechowywania danych: czy w 2020 roku czeka nas przełom?
Jednocześnie oczekuje się, że koszt pamięci flash NAND wzrośnie w 2020 r., dlatego na przykład dostawca kontrolerów SSD Phison zakłada, że ​​rosnące ceny ostatecznie popchną rynek konsumenckich dysków SSD w kierunku 4-bitowej pamięci flash QLC NAND. Nawiasem mówiąc, Intel planuje wypuścić na rynek rozwiązania 144-warstwowe QLC (zamiast produktów 96-warstwowych). Cóż... wygląda na to, że zmierzamy w kierunku dalszej marginalizacji dysków twardych.

Pamięć SCM: prędkość zbliżona do DRAM

Powszechne przyjęcie pamięci SCM (Storage Class Memory) przewidywano od kilku lat, a rok 2020 może być punktem wyjścia do tego, aby przewidywania te w końcu się spełniły. Choć moduły pamięci Intel Optane, Toshiba XL-Flash i Samsung Z-SSD weszły już na rynek korporacyjny, ich wygląd nie wywołał zdecydowanej reakcji.

Urządzenie Intela łączy w sobie cechy szybkiej, ale niestabilnej pamięci DRAM z wolniejszą, ale trwałą pamięcią NAND. Ta kombinacja ma na celu poprawę zdolności użytkowników do pracy z dużymi zbiorami danych, zapewniając zarówno szybkość DRAM, jak i pojemność NAND. Pamięć SCM jest nie tylko szybsza od alternatywnych rozwiązań opartych na NAND: jest dziesięć razy szybsza. Opóźnienie wynosi mikrosekundy, a nie milisekundy.

Nowe technologie przechowywania danych: czy w 2020 roku czeka nas przełom?

Eksperci rynku zauważają, że centra danych planujące wykorzystanie SCM będą ograniczone faktem, że technologia ta będzie działać wyłącznie na serwerach wyposażonych w procesory Intel Cascade Lake. Jednak ich zdaniem nie będzie to przeszkodą w zatrzymaniu fali modernizacji istniejących centrów danych w celu zapewnienia wysokich prędkości przetwarzania.

Od przewidywalnej rzeczywistości do odległej przyszłości

Dla większości użytkowników przechowywanie danych nie wiąże się z poczuciem „pojemnościowego Armagedonu”. Ale pomyśl o tym: 3,7 miliarda ludzi, którzy obecnie korzystają z Internetu, generuje każdego dnia około 2,5 tryliona bajtów danych. Aby sprostać tym potrzebom, potrzeba coraz większej liczby centrów danych.

Według statystyk do 2025 roku świat będzie gotowy przetworzyć 160 zetabajtów danych rocznie (to więcej niż liczba gwiazd w obserwowalnym Wszechświecie). Jest prawdopodobne, że w przyszłości będziemy musieli pokryć centrami danych każdy metr kwadratowy planety Ziemia, w przeciwnym razie korporacje po prostu nie będą w stanie przystosować się do tak dużego wzrostu informacji. Albo... będziesz musiał zrezygnować z części danych. Istnieje jednak kilka potencjalnie interesujących technologii, które mogłyby rozwiązać narastający problem przeciążenia informacyjnego.

Struktura DNA jako podstawa przyszłego przechowywania danych

Nowych sposobów przechowywania i przetwarzania informacji poszukują nie tylko korporacje IT, ale także wielu naukowców. Globalnym zadaniem jest zapewnienie zachowania informacji przez tysiące lat. Naukowcy z ETH Zurich w Szwajcarii uważają, że rozwiązanie należy znaleźć w organicznym systemie przechowywania danych, który istnieje w każdej żywej komórce: DNA. A co najważniejsze, system ten został „wynaleziony” na długo przed pojawieniem się komputera.

Nowe technologie przechowywania danych: czy w 2020 roku czeka nas przełom?

Nici DNA są bardzo złożonymi, zwartymi i niezwykle gęstymi nośnikami informacji: według naukowców w gramie DNA można zapisać 455 eksabajtów danych, gdzie 1 ebajt odpowiada miliardowi gigabajtów. Pierwsze eksperymenty pozwoliły już zapisać w DNA 83 KB informacji, po czym nauczyciel Wydziału Chemii i Nauk Biologicznych Robert Grass wyraził pogląd, że w nowej dekadzie dziedzina medyczna musi ściślej zjednoczyć się z strukturę informatyczną do wspólnego rozwoju w zakresie technologii zapisu i przechowywania danych.

Zdaniem naukowców organiczne urządzenia do przechowywania danych oparte na łańcuchach DNA mogą przechowywać informacje nawet przez milion lat i dokładnie je udostępniać na pierwsze żądanie. Możliwe, że za kilka dekad większość dysków będzie walczyć o właśnie tę szansę: możliwość niezawodnego i pojemnego przechowywania danych przez długi czas.

Nowe technologie przechowywania danych: czy w 2020 roku czeka nas przełom?

Szwajcarzy nie są jedynymi, którzy pracują nad systemami przechowywania opartymi na DNA. Pytanie to zadaje się od 1953 roku, kiedy Francis Crick odkrył podwójną helisę DNA. Ale w tym momencie ludzkość po prostu nie miała wystarczającej wiedzy na takie eksperymenty. Tradycyjne myślenie o przechowywaniu DNA skupiało się na syntezie nowych cząsteczek DNA; dopasowując sekwencję bitów do sekwencji czterech par zasad DNA i tworząc wystarczającą liczbę cząsteczek, aby reprezentować wszystkie liczby, które należy zapisać. Tym samym latem 2019 roku inżynierom z firmy CATALOG udało się zarejestrować 16 GB anglojęzycznej Wikipedii w DNA stworzonym z syntetycznych polimerów. Problem w tym, że proces ten jest powolny i kosztowny, co stanowi istotne wąskie gardło w przypadku przechowywania danych.

Nie samo DNA...: molekularne urządzenia magazynujące

Naukowcy z Brown University (USA) twierdzą, że cząsteczka DNA nie jest jedyną możliwością molekularnego przechowywania danych nawet przez milion lat. Metabolity o niskiej masie cząsteczkowej mogą również pełnić funkcję magazynu organicznego. Kiedy informacja zostaje zapisana w zestawie metabolitów, cząsteczki zaczynają oddziaływać ze sobą i wytwarzać nowe, elektrycznie obojętne cząstki, które zawierają zapisane w nich dane.

Nowe technologie przechowywania danych: czy w 2020 roku czeka nas przełom?

Nawiasem mówiąc, badacze nie poprzestali na tym i rozszerzyli zestaw cząsteczek organicznych, co umożliwiło zwiększenie gęstości rejestrowanych danych. Odczytanie takich informacji jest możliwe dzięki analizie chemicznej. Jedynym minusem jest to, że wdrożenie takiego organicznego urządzenia do przechowywania nie jest jeszcze możliwe w praktyce, poza warunkami laboratoryjnymi. To jest po prostu rozwój na przyszłość.

Pamięć optyczna 5D: rewolucja w przechowywaniu danych

Kolejne eksperymentalne repozytorium należy do programistów z Uniwersytetu w Southampton w Anglii. Próbując stworzyć innowacyjny cyfrowy system przechowywania, który może przetrwać miliony lat, naukowcy opracowali proces zapisywania danych na maleńkim dysku kwarcowym oparty na rejestracji impulsów femtosekundowych. System przechowywania przeznaczony jest do archiwizacji i przechowywania w chłodni dużych wolumenów danych i określany jest jako magazyn pięciowymiarowy.

Nowe technologie przechowywania danych: czy w 2020 roku czeka nas przełom?

Dlaczego pięciowymiarowy? Faktem jest, że informacja jest kodowana na kilku warstwach, w tym na zwykłych trzech wymiarach. Do tych wymiarów dodawane są jeszcze dwa — rozmiar i orientacja nanokropki. Pojemność danych, jaką można zapisać na takim minidysku to aż 100 petabajtów, a czas przechowywania to 13,8 miliarda lat w temperaturach do 190°C. Maksymalna temperatura ogrzewania, jaką może wytrzymać dysk, wynosi 982°C. Krótko mówiąc... jest praktycznie wieczny!

Nowe technologie przechowywania danych: czy w 2020 roku czeka nas przełom?

Prace Uniwersytetu w Southampton przykuły ostatnio uwagę firmy Microsoft, której program przechowywania danych w chmurze Project Silica ma na celu ponowne przemyślenie obecnych technologii przechowywania danych. Według prognoz „small-soft” do 2023 r. w chmurach będzie przechowywanych ponad 100 zetabajtów informacji, więc nawet wielkoskalowe systemy przechowywania będą miały trudności.

Więcej informacji na temat produktów Kingston Technology można znaleźć na oficjalnej stronie internetowej firmy.

Źródło: www.habr.com

Dodaj komentarz