Życie bajtu danych

Życie bajtu danych

Każdy dostawca usług w chmurze oferuje usługi przechowywania danych. Mogą to być magazyny zimne i gorące, lodowate itp. Przechowywanie informacji w chmurze jest dość wygodne. Ale jak faktycznie przechowywano dane 10, 20, 50 lat temu? Cloud4Y przetłumaczył ciekawy artykuł, który mówi właśnie o tym.

Bajt danych można przechowywać na różne sposoby, ponieważ cały czas pojawiają się nowe, bardziej zaawansowane i szybsze nośniki danych. Bajt to jednostka przechowywania i przetwarzania informacji cyfrowej, która składa się z ośmiu bitów. Jeden bit może zawierać 0 lub 1.

W przypadku kart dziurkowanych bit jest zapisywany jako obecność/brak dziury na karcie w określonym miejscu. Jeśli cofniemy się nieco dalej do silnika analitycznego Babbage’a, rejestrami przechowującymi liczby były koła zębate. W magnetycznych urządzeniach do przechowywania danych, takich jak taśmy i dyski, bit jest reprezentowany przez polaryzację określonego obszaru folii magnetycznej. We współczesnej pamięci dynamicznej o dostępie swobodnym (DRAM) bit jest często przedstawiany jako dwupoziomowy ładunek elektryczny przechowywany w urządzeniu przechowującym energię elektryczną w polu elektrycznym. Naładowany lub rozładowany kontener przechowuje trochę danych.

W czerwcu 1956 roku Wernera Buchholza wymyślił to słowo bajt do oznaczenia grupy bitów używanych do kodowania pojedynczego znaku tekst. Porozmawiajmy trochę o kodowaniu znaków. Zacznijmy od amerykańskiego standardowego kodu wymiany informacji, czyli ASCII. ASCII został oparty na alfabecie angielskim, więc każda litera, cyfra i symbol (az, AZ, 0-9, +, -, /, „,! itd.) ) były reprezentowane jako 7-bitowa liczba całkowita od 32 do 127. Nie było to do końca „przyjazne" dla innych języków. Aby obsługiwać inne języki, Unicode rozszerzył ASCII. W Unicode każdy znak jest reprezentowany na przykład jako punkt kodowy lub symbol , mała litera j to U+006A, gdzie U oznacza Unicode, a następnie liczbę szesnastkową.

UTF-8 to standard reprezentacji znaków w postaci ośmiu bitów, umożliwiający przechowywanie każdego punktu kodowego z zakresu 0–127 w jednym bajcie. Jeśli pamiętamy ASCII, jest to całkiem normalne w przypadku znaków angielskich, ale znaki w innych językach są często wyrażane w dwóch lub więcej bajtach. UTF-16 to standard przedstawiający znaki jako 16-bitowe, a UTF-32 to standard reprezentujący znaki jako 32-bitowe. W ASCII każdy znak jest bajtem, ale w Unicode, co często nie jest do końca prawdą, znak może zajmować 1, 2, 3 lub więcej bajtów. W artykule zostaną wykorzystane różne wielkości grup bitów. Liczba bitów w bajcie różni się w zależności od konstrukcji nośnika.

W tym artykule przeniesiemy się w czasie za pomocą różnych nośników danych, aby zagłębić się w historię przechowywania danych. W żadnym wypadku nie zaczniemy dogłębnie badać każdego nośnika danych, jaki kiedykolwiek wynaleziono. To zabawny artykuł informacyjny, który w żaden sposób nie rości sobie pretensji do znaczenia encyklopedycznego.

Zaczynajmy. Powiedzmy, że mamy bajt danych do zapisania: literę j, albo jako zakodowany bajt 6a, albo jako plik binarny 01001010. W miarę podróży w czasie bajt danych będzie używany w kilku technologiach przechowywania, które zostaną opisane.

1951

Życie bajtu danych

Nasza historia zaczyna się w 1951 roku od napędu taśmowego UNIVAC UNISERVO do komputera UNIVAC 1. Był to pierwszy napęd taśmowy stworzony dla komputera komercyjnego. Obrączka została wykonana z cienkiego paska niklowanego brązu o szerokości 12,65 mm (zwanego Vicalloy) i długości prawie 366 metrów. Nasze bajty danych mogłyby być przechowywane z szybkością 7 znaków na sekundę na taśmie poruszającej się z prędkością 200 metra na sekundę. W tym momencie historii prędkość algorytmu przechowywania można było zmierzyć na podstawie odległości przebytej przez taśmę.

1952

Życie bajtu danych

Przenieśmy się o rok do 21 maja 1952 roku, kiedy IBM ogłosił wypuszczenie na rynek swojej pierwszej jednostki taśm magnetycznych, IBM 726. Nasz bajt danych mógł teraz zostać przeniesiony z metalowej taśmy UNISERVO na taśmę magnetyczną IBM. Ten nowy dom okazał się bardzo przytulny dla naszego bardzo małego bajtu danych, ponieważ na taśmie można zapisać do 2 milionów cyfr. Ta 7-ścieżkowa taśma magnetyczna poruszała się z prędkością 1,9 metra na sekundę przy szybkości transmisji 12 500 cyfry lub 7500 znaków (wówczas zwane grupami kopii) na sekundę. Dla porównania: przeciętny artykuł na temat Habré ma około 10 000 znaków.

Taśma IBM 726 miała siedem ścieżek, z których sześć służyło do przechowywania informacji, a jedna do kontroli parzystości. Na jednej szpuli mieściło się do 400 metrów taśmy o szerokości 1,25 cm, a prędkość przesyłu danych teoretycznie sięgała 12,5 tys. znaków na sekundę; gęstość zapisu wynosi 40 bitów na centymetr. W systemie tym zastosowano metodę „kanału próżniowego”, w której pętla taśmy krążyła między dwoma punktami. Pozwoliło to na rozpoczęcie i zatrzymanie taśmy w ułamku sekundy. Osiągnięto to poprzez umieszczenie długich kolumn próżniowych pomiędzy szpulami taśmy a głowicami odczytu/zapisu, aby absorbować nagły wzrost napięcia taśmy, bez którego taśma zwykle pękałaby. Zdejmowany plastikowy pierścień z tyłu szpuli z taśmą zapewniał ochronę przed zapisem. Jedna szpula taśmy może pomieścić około 1,1 megabajt.

Pamiętajcie o kasetach VHS. Co musiałeś zrobić, żeby obejrzeć film jeszcze raz? Przewiń taśmę! Ile razy kręciłeś kasetą do swojego odtwarzacza na ołówku, żeby nie marnować baterii i nie dostać podartej lub zaciętej taśmy? To samo można powiedzieć o taśmach stosowanych w komputerach. Programy nie mogły po prostu przeskakiwać po taśmie ani losowo uzyskiwać dostępu do danych, mogły odczytywać i zapisywać dane ściśle sekwencyjnie.

1956

Życie bajtu danych

Przenieśmy się kilka lat do roku 1956, a era przechowywania na dyskach magnetycznych rozpoczęła się wraz z ukończeniem przez IBM systemu komputerowego RAMAC 305, który dostarczył Zellerbach Paper Frisco. W tym komputerze jako pierwszy zastosowano dysk twardy z ruchomą głowicą. Napęd dyskowy RAMAC składał się z pięćdziesięciu namagnesowanych metalowych talerzy o średnicy 60,96 cm, zdolnych do przechowywania około pięciu milionów znaków danych, 7 bitów na znak i obracających się z prędkością 1200 obrotów na minutę. Pojemność pamięci wynosiła około 3,75 megabajtów.

RAMAC umożliwiał dostęp w czasie rzeczywistym do dużych ilości danych, w przeciwieństwie do taśmy magnetycznej czy kart dziurkowanych. IBM reklamował RAMAC jako zdolny do przechowywania równowartości 64 000 karty perforowane. Wcześniej RAMRAC wprowadził koncepcję ciągłego przetwarzania transakcji w momencie ich wystąpienia, dzięki czemu dane można było odzyskać natychmiast, gdy były jeszcze świeże. Dostęp do naszych danych w RAMAC można teraz uzyskać z szybkością 100 000 bitów na sekundę. Wcześniej, korzystając z taśm, musieliśmy zapisywać i odczytywać dane sekwencyjnie i nie mogliśmy przypadkowo przeskakiwać do różnych części taśmy. Losowy dostęp do danych w czasie rzeczywistym był wówczas naprawdę rewolucyjny.

1963

Życie bajtu danych

Przenieśmy się szybko do roku 1963, kiedy wprowadzono taśmę DECtape. Nazwa pochodzi od firmy Digital Equipment Corporation, znanej jako DEC. Taśma DECtape była niedroga i niezawodna, dlatego była używana w wielu generacjach komputerów DEC. Była to taśma o szerokości 19 mm, laminowana i umieszczona pomiędzy dwiema warstwami Mylaru na czterocalowej (10,16 cm) szpuli.

W przeciwieństwie do swoich ciężkich i nieporęcznych poprzedników, taśmę DECtape można było przenosić ręcznie. To sprawiło, że była to doskonała opcja dla komputerów osobistych. W przeciwieństwie do swoich 7-ścieżkowych odpowiedników, DECtape miał 6 ścieżek danych, 2 ścieżki cue i 2 ścieżki zegara. Dane rejestrowano z szybkością 350 bitów na cal (138 bitów na cm). Nasz bajt danych, który ma 8 bitów, ale można go rozszerzyć do 12, mógłby zostać przesłany na taśmę DECtape z prędkością 8325 12-bitowych słów na sekundę przy szybkości taśmy 93 (±12) cali na sekundę daj mi sekundę. To o 8% więcej cyfr na sekundę niż taśma metalowa UNISERVO w 1952 roku.
 

1967

Życie bajtu danych

Cztery lata później, w 1967 roku, mały zespół IBM rozpoczął prace nad stacją dyskietek IBM o nazwie kodowej Minnow. Następnie zespołowi powierzono zadanie opracowania niezawodnego i niedrogiego sposobu ładowania mikrokodów komputery mainframe System IBM/370. Projekt został następnie zmieniony i przystosowany do ładowania mikrokodu do kontrolera IBM 3330 Direct Access Storage Facility o nazwie kodowej Merlin.

Nasz bajt można teraz przechowywać na 8-calowych dyskietkach z mylaru powlekanych magnetycznie, przeznaczonych tylko do odczytu, znanych dziś jako dyskietki. W momencie premiery produkt nosił nazwę IBM 23FD Floppy Disk Drive System. Dyski mogły pomieścić 80 kilobajtów danych. W przeciwieństwie do dysków twardych użytkownik może z łatwością przenosić dyskietki w obudowie ochronnej z jednego napędu na drugi. Później, w 1973 roku, IBM wypuścił dyskietkę do odczytu/zapisu, która następnie stała się produktem przemysłowym standard.
 

1969

Życie bajtu danych
 W 1969 roku na pokładzie statku kosmicznego Apollo 11 wystrzelono komputer naprowadzający Apollo (AGC) z pamięcią linową, który przewoził amerykańskich astronautów na Księżyc i z powrotem. Ta pamięć linowa została wykonana ręcznie i mogła pomieścić 72 kilobajty danych. Produkcja pamięci linowej była pracochłonna, powolna i wymagała umiejętności podobnych do tkania; to mogłoby zająć miesięcy. Było to jednak właściwe narzędzie na czasy, gdy ważne było zmieszczenie maksimum w ściśle ograniczonej przestrzeni. Kiedy drut przechodził przez jedno z okrągłych pasm, reprezentował on cyfrę 1. Drut przechodzący wokół splotki reprezentował 0. Nasz bajt danych wymagał od osoby wplatania liny przez kilka minut.

1977

Życie bajtu danych

W 1977 roku wypuszczono Commodore PET, pierwszy (udany) komputer osobisty. W PET zastosowano kasetę danych Commodore 1530, co oznacza dane plus kasetę. PET przekształcił dane w analogowe sygnały audio, które następnie zapisano kasety. Pozwoliło nam to stworzyć opłacalne i niezawodne rozwiązanie do przechowywania danych, choć bardzo powolne. Nasz mały bajt danych może być przesyłany z prędkością około 60-70 bajtów na sekundę daj mi sekundę. Kasety mogły pomieścić około 100 kilobajtów na stronie 30-minutowej, po dwie strony na taśmę. Na przykład jedna strona kasety może pomieścić około dwóch obrazów o rozmiarze 55 KB. Zestawy danych były również używane w Commodore VIC-20 i Commodore 64.

1978

Życie bajtu danych

Rok później, w 1978 roku, MCA i Philips wprowadziły LaserDisc pod nazwą „Discovision”. Szczęki były pierwszym filmem sprzedanym na LaserDisc w Stanach Zjednoczonych. Jego jakość dźwięku i obrazu była znacznie lepsza niż u konkurencji, ale dysk laserowy był zbyt drogi dla większości konsumentów. Na płytę LaserDisc nie można było nagrać, w przeciwieństwie do taśm VHS, na których ludzie nagrywali programy telewizyjne. Dyski laserowe współpracowały z analogowym wideo, analogowym dźwiękiem stereo FM i kodem impulsowym modulacjalub PCM, dźwięk cyfrowy. Tarcze miały średnicę 12 cali (30,47 cm) i składały się z dwóch jednostronnych aluminiowych dysków pokrytych tworzywem sztucznym. Dziś LaserDisc jest pamiętany jako podstawa płyt CD i DVD.

1979

Życie bajtu danych

Rok później, w 1979, Alan Shugart i Finis Conner założyli firmę Seagate Technology z pomysłem skalowania dysku twardego do rozmiaru dyskietki 5 ¼ cala, co było wówczas standardem. Ich pierwszym produktem w 1980 roku był dysk twardy Seagate ST506, pierwszy dysk twardy do komputerów kompaktowych. Na dysku mieściło się pięć megabajtów danych, czyli w tamtym czasie pięć razy więcej niż standardowa dyskietka. Założycielom udało się osiągnąć swój cel, jakim było zmniejszenie rozmiaru dysku do rozmiaru dyskietki 5¼-calowej. Nowym urządzeniem do przechowywania danych była sztywna metalowa płyta pokryta z obu stron cienką warstwą magnetycznego materiału do przechowywania danych. Nasze bajty danych można przesyłać na dysk z prędkością 625 kilobajtów na sekundę daj mi sekundę. To jest w przybliżeniu taki GIF.

1981

Życie bajtu danych

Przejdźmy kilka lat do roku 1981, kiedy firma Sony wprowadziła na rynek pierwsze dyskietki 3,5-calowe. Hewlett-Packard jako pierwszy zastosował tę technologię w 1982 roku, wypuszczając model HP-150. To rozsławiło dyskietki 3,5-calowe i umożliwiło ich szerokie zastosowanie na całym świecie. przemysł. Dyskietki były jednostronne i miały pojemność sformatowaną 161.2 kilobajtów i niesformatowaną pojemność 218.8 kilobajtów. W 1982 roku wypuszczono wersję dwustronną, a konsorcjum Microfloppy Industry Committee (MIC) składające się z 23 firm medialnych oparło specyfikację 3,5-calowych dyskietek na oryginalnym projekcie Sony, utrwalając format w historii, jaką znamy dzisiaj. wiemy. Teraz nasze bajty danych można przechowywać na wczesnej wersji jednego z najpopularniejszych nośników danych: dyskietce 3,5-calowej. Później para dyskietek 3,5-calowych z Szlak Oregoński stała się najważniejszą częścią mojego dzieciństwa.

1984

Życie bajtu danych

Niedługo potem, w 1984 roku, ogłoszono wypuszczenie na rynek płyty Compact Disc Read-Only Memory (CD-ROM). Były to 550-megabajtowe płyty CD-ROM firm Sony i Philips. Format wyrósł z płyt CD z dźwiękiem cyfrowym, czyli CD-DA, które służyły do ​​dystrybucji muzyki. CD-DA został opracowany przez Sony i Philips w 1982 roku i miał pojemność 74 minut. Według legendy, gdy Sony i Philips negocjowały standard CD-DA, jedna z czterech osób upierała się, że mógłby on zawierać całą IX Symfonię. Pierwszym produktem wydanym na płycie CD była Elektroniczna Encyklopedia Groliera, wydana w 1985 roku. Encyklopedia zawierała dziewięć milionów słów, co zajmowało jedynie 12% dostępnej przestrzeni dyskowej, czyli 553 mebibajt. Mielibyśmy więcej niż wystarczająco miejsca na encyklopedię i bajt danych. Wkrótce potem, w 1985 roku, firmy komputerowe współpracowały nad stworzeniem standardu dla napędów dyskowych, tak aby każdy komputer mógł je odczytać.

1984

Również w 1984 roku Fujio Masuoka opracował nowy typ pamięci z bramką zmiennoprzecinkową, zwaną pamięcią flash, którą można było wielokrotnie kasować i przepisywać.

Poświęćmy chwilę na przyjrzenie się pamięci flash wykorzystującej tranzystor z bramką pływającą. Tranzystory to bramki elektryczne, które można indywidualnie włączać i wyłączać. Ponieważ każdy tranzystor może znajdować się w dwóch różnych stanach (włączony i wyłączony), może przechowywać dwie różne liczby: 0 i 1. Bramka pływająca odnosi się do drugiej bramki dodanej do środkowego tranzystora. Ta druga bramka jest izolowana cienką warstwą tlenku. Tranzystory te wykorzystują małe napięcie przyłożone do bramki tranzystora, aby wskazać, czy jest ona włączona, czy wyłączona, co z kolei przekłada się na 0 lub 1.
 
W przypadku bramek pływających, po przyłożeniu odpowiedniego napięcia do warstwy tlenku, elektrony przepływają przez nią i utkną w bramkach. Dlatego nawet po wyłączeniu zasilania elektrony pozostają na nich. Gdy na bramkach pływających nie ma elektronów, oznacza to 1, a gdy elektrony utknęły, oznacza to 0. Odwrócenie tego procesu i przyłożenie odpowiedniego napięcia przez warstwę tlenku w przeciwnym kierunku powoduje przepływ elektronów przez bramki pływające i przywróć tranzystor do pierwotnego stanu. Dlatego komórki są programowalne i nielotny. Nasz bajt można zaprogramować w tranzystorze jako 01001010, z elektronami, z elektronami utkniętymi w pływających bramkach, aby reprezentować zera.

Projekt Masuoki był nieco tańszy, ale mniej elastyczny niż elektrycznie kasowalna pamięć PROM (EEPROM), ponieważ wymagała wielu grup komórek, które trzeba było razem wymazać, ale to również wyjaśniało jego szybkość.

W tym czasie Masuoka pracował dla Toshiby. W końcu odszedł do pracy na Uniwersytecie Tohoku, ponieważ był niezadowolony, że firma nie wynagradzała go za jego pracę. Masuoka pozwał Toshibę, żądając odszkodowania. W 2006 roku zapłacono mu 87 milionów juanów, co stanowi równowartość 758 tysięcy dolarów amerykańskich. To wciąż wydaje się nieistotne, biorąc pod uwagę wpływ pamięci flash na branżę.

Skoro mówimy o pamięci flash, warto również zwrócić uwagę na różnicę pomiędzy pamięcią flash NOR i NAND. Jak już wiemy od Masuoki, flash przechowuje informacje w komórkach pamięci składających się z tranzystorów z pływającą bramką. Nazwy technologii są bezpośrednio związane ze sposobem organizacji komórek pamięci.

W pamięci flash NOR poszczególne komórki pamięci są połączone równolegle, aby zapewnić swobodny dostęp. Architektura ta skraca czas odczytu wymagany do losowego dostępu do instrukcji mikroprocesora. Pamięć flash NOR jest idealna do zastosowań o mniejszej gęstości, które są głównie przeznaczone tylko do odczytu. Właśnie dlatego większość procesorów ładuje oprogramowanie sprzętowe, zwykle z pamięci flash NOR. Masuoka i jego współpracownicy wprowadzili wynalazek pamięci flash NOR w 1984 roku i wprowadzili technologię flash NAND 1987.

Twórcy pamięci NAND Flash porzucili funkcję dostępu swobodnego, aby uzyskać mniejszy rozmiar komórki pamięci. Skutkuje to mniejszym rozmiarem chipa i niższym kosztem na bit. Architektura pamięci flash NAND składa się z ośmioczęściowych tranzystorów pamięci połączonych szeregowo. Pozwala to uzyskać wysoką gęstość przechowywania, mniejszy rozmiar komórki pamięci oraz szybsze zapisywanie i usuwanie danych, ponieważ umożliwia jednoczesne programowanie bloków danych. Osiąga się to poprzez wymaganie przepisywania danych, gdy nie są one zapisywane sekwencyjnie, a dane już istnieją blok.

1991

Przejdźmy do roku 1991, kiedy to firma SanDisk stworzyła prototypowy dysk półprzewodnikowy (SSD), znany wówczas jako SunDisk. Projekt łączył macierz pamięci flash, układy pamięci nieulotnej i inteligentny kontroler do automatycznego wykrywania i korygowania uszkodzonych komórek. Pojemność dysku w formacie 20 cala wynosiła 2,5 megabajtów, a jego koszt oszacowano na około 1000 dolarów. Dysk ten był używany przez IBM w komputerze ThinkPad.

1994

Życie bajtu danych

Jednym z moich ulubionych nośników danych od dzieciństwa były dyski Zip. W 1994 roku firma Iomega wypuściła Zip Disk, 100-megabajtową kasetę w formacie 3,5 cala, nieco grubszą niż standardowy dysk 3,5-calowy. Późniejsze wersje dysków mogły pomieścić do 2 gigabajtów. Wygoda tych dysków polega na tym, że miały one rozmiar dyskietki, ale umożliwiały przechowywanie większej ilości danych. Nasze bajty danych można zapisać na dysku Zip z szybkością 1,4 megabajta na sekundę. Dla porównania w tamtym czasie na dyskietce 1,44-calowej zapisywano 3,5 megabajta z szybkością około 16 kilobajtów na sekundę. Na dysku Zip głowice odczytują/zapisują dane bezdotykowo, jakby unosząc się nad powierzchnią, co jest podobne do działania dysku twardego, ale różni się zasadą działania od innych dyskietek. Dyski Zip szybko stały się przestarzałe ze względu na problemy z niezawodnością i dostępnością.

1994

Życie bajtu danych

W tym samym roku firma SanDisk wprowadziła technologię CompactFlash, która była szeroko stosowana w cyfrowych kamerach wideo. Podobnie jak w przypadku płyt CD, prędkości CompactFlash są oparte na wartościach „x”, takich jak 8x, 20x, 133x itd. Maksymalna szybkość przesyłania danych jest obliczana na podstawie szybkości transmisji oryginalnej płyty audio CD, 150 kilobajtów na sekundę. Szybkość transmisji wygląda następująco: R = Kx150 kB/s, gdzie R to szybkość transmisji, a K to prędkość nominalna. Zatem w przypadku CompactFlash 133x nasz bajt danych zostanie zapisany z szybkością 133x150 kB/s, czyli około 19 950 kB/s lub 19,95 MB/s. Stowarzyszenie CompactFlash zostało założone w 1995 roku w celu stworzenia standardu branżowego dla kart pamięci flash.

1997

Kilka lat później, w 1997 r., wypuszczono na rynek płytę Compact Disc Rewritable (CD-RW). Ten dysk optyczny służył do przechowywania danych oraz do kopiowania i przesyłania plików na różne urządzenia. Płyty CD można zapisywać około 1000 razy, co w tamtym czasie nie było czynnikiem ograniczającym, ponieważ użytkownicy rzadko nadpisywali dane.

Płyty CD-RW wykorzystują technologię zmieniającą współczynnik odbicia powierzchni. W przypadku CD-RW przesunięcia fazowe w specjalnej powłoce składającej się ze srebra, telluru i indu powodują zdolność do odbijania lub nieodbijania wiązki odczytu, co oznacza 0 lub 1. Gdy związek jest w stanie krystalicznym, jest to półprzezroczysty, co oznacza 1. Kiedy związek topi się do stanu amorficznego, staje się nieprzezroczysty i nieodblaskowy, co środki 0. Zatem moglibyśmy zapisać nasz bajt danych jako 01001010.

Płyty DVD ostatecznie przejęły większość udziału w rynku od płyt CD-RW.

1999

Przejdźmy do roku 1999, kiedy IBM wprowadził na rynek najmniejsze wówczas dyski twarde na świecie: mikrodyski IBM o pojemności 170 MB i 340 MB. Były to małe dyski twarde o średnicy 2,54 cm, zaprojektowane tak, aby pasowały do ​​gniazd CompactFlash Type II. Planowano stworzyć urządzenie, które miałoby zastosowanie na wzór CompactFlash, ale z większą pojemnością pamięci. Jednak wkrótce zostały one zastąpione dyskami flash USB, a następnie, gdy stały się dostępne, większymi kartami CompactFlash. Podobnie jak inne dyski twarde, mikronapędy były mechaniczne i zawierały małe wirujące dyski.

2000

Rok później, w 2000 roku, wprowadzono dyski flash USB. Napędy składały się z pamięci flash zamkniętej w małej obudowie z interfejsem USB. W zależności od wersji używanego interfejsu USB prędkość może się różnić. USB 1.1 jest ograniczone do 1,5 megabitów na sekundę, podczas gdy USB 2.0 może obsłużyć 35 megabitów na sekundę daj mi sekundę, a USB 3.0 to 625 megabitów na sekundę. Pierwsze dyski USB 3.1 typu C zostały ogłoszone w marcu 2015 r. i zapewniały prędkość odczytu/zapisu wynoszącą 530 megabitów na sekundę. W przeciwieństwie do dyskietek i napędów optycznych, urządzenia USB są trudniejsze do zarysowania, ale nadal mają te same możliwości przechowywania danych, a także przesyłania plików i tworzenia kopii zapasowych. Napędy dyskietek i CD zostały szybko zastąpione portami USB.

2005

Życie bajtu danych

W 2005 roku producenci dysków twardych (HDD) zaczęli dostarczać produkty wykorzystujące prostopadły zapis magnetyczny, w skrócie PMR. Co ciekawe, stało się to w tym samym czasie, gdy iPod Nano ogłosił użycie w iPodzie Mini pamięci flash zamiast 1-calowych dysków twardych.

Typowy dysk twardy zawiera jeden lub więcej dysków twardych pokrytych magnetyczną powłoką złożoną z drobnych ziarenek magnetycznych. Dane są rejestrowane, gdy magnetyczna głowica rejestrująca przelatuje tuż nad wirującym dyskiem. Działa to bardzo podobnie do tradycyjnego gramofonu, z tą tylko różnicą, że w gramofonie igła ma fizyczny kontakt z płytą. Gdy dyski się obracają, stykające się z nimi powietrze tworzy delikatny wietrzyk. Podobnie jak powietrze na skrzydle samolotu wytwarza siłę nośną, powietrze generuje siłę nośną na główce płata głowice dyskowe. Głowica szybko zmienia namagnesowanie jednego obszaru magnetycznego ziaren tak, że jego biegun magnetyczny skierowany jest w górę lub w dół, wskazując 1 lub 0.
 
Poprzednikiem PMR był podłużny zapis magnetyczny, w skrócie LMR. Gęstość zapisu PMR może być ponad trzykrotnie większa niż w przypadku LMR. Główna różnica między PMR i LMR polega na tym, że struktura ziaren i orientacja magnetyczna przechowywanych danych w nośnikach PMR jest raczej kolumnowa niż podłużna. PMR ma lepszą stabilność termiczną i lepszy stosunek sygnału do szumu (SNR) dzięki lepszej separacji ziaren i jednorodności. Charakteryzuje się również lepszą możliwością nagrywania dzięki silniejszym polom głowicy i lepszemu wyrównaniu nośników magnetycznych. Podobnie jak w przypadku LMR, podstawowe ograniczenia PMR opierają się na stabilności termicznej bitów danych zapisywanych przez magnes i konieczności posiadania wystarczającego współczynnika SNR do odczytania zapisanych informacji.

2007

W 2007 roku zaprezentowano pierwszy dysk twardy o pojemności 1 TB firmy Hitachi Global Storage Technologies. Hitachi Deskstar 7K1000 korzystał z pięciu 3,5-calowych talerzy o pojemności 200 GB i obracał się z prędkością 7200 obr./min Stanowi to znaczący postęp w stosunku do pierwszego na świecie dysku twardego IBM RAMAC 350, który miał pojemność około 3,75 megabajtów. Och, jak daleko zaszliśmy w ciągu 51 lat! Ale czekaj, jest coś więcej.

2009

W 2009 roku rozpoczęły się prace techniczne nad stworzeniem nieulotnej pamięci ekspresowej, czyli NVMe. Pamięć nieulotna (NVM) to rodzaj pamięci, w której można trwale przechowywać dane, w przeciwieństwie do pamięci ulotnej, która do przechowywania danych wymaga stałego zasilania. NVMe zaspokaja zapotrzebowanie na skalowalny interfejs kontrolera hosta dla komponentów peryferyjnych opartych na półprzewodnikach z obsługą PCIe, stąd nazwa NVMe. W grupie roboczej zajmującej się opracowaniem projektu wzięło udział ponad 90 firm. Wszystko opierało się na pracy nad zdefiniowaniem specyfikacji interfejsu kontrolera hosta pamięci nieulotnej (NVMHCIS). Najlepsze obecnie dyski NVMe obsługują około 3500 megabajtów na sekundę odczytu i 3300 megabajtów na sekundę zapisu. Zapisanie bajtu danych j, od którego zaczęliśmy, jest bardzo szybkie w porównaniu z kilkoma minutami pamięci liny ręcznie tkanej dla komputera nawigacyjnego Apollo.

Teraźniejszość i przyszłość

Pamięć klasy pamięci

Teraz, gdy cofnęliśmy się w czasie (ha!), przyjrzyjmy się obecnemu stanowi pamięci klasy Storage. SCM, podobnie jak NVM, jest solidny, ale SCM zapewnia również wydajność lepszą lub porównywalną z pamięcią główną adresowalność bajtów. Celem SCM jest rozwiązanie niektórych współczesnych problemów z pamięcią podręczną, takich jak niska gęstość statycznej pamięci o dostępie swobodnym (SRAM). Dzięki dynamicznej pamięci o dostępie swobodnym (DRAM) możemy osiągnąć większą gęstość, ale dzieje się to kosztem wolniejszego dostępu. DRAM również cierpi na potrzebę stałego zasilania, aby odświeżyć pamięć. Rozumiemy to trochę. Zasilanie jest potrzebne, ponieważ ładunek elektryczny na kondensatorach stopniowo wycieka, co oznacza, że ​​bez interwencji dane znajdujące się w chipie wkrótce zostaną utracone. Aby zapobiec takim wyciekom, pamięć DRAM wymaga zewnętrznego obwodu odświeżającego pamięć, który okresowo zapisuje dane w kondensatorach, przywracając im pierwotny ładunek.

Pamięć zmiany fazy (PCM)

Wcześniej przyglądaliśmy się zmianom fazy w przypadku płyt CD-RW. PCM jest podobny. Materiałem o przemianie fazowej jest zwykle Ge-Sb-Te, znany również jako GST, który może występować w dwóch różnych stanach: amorficznym i krystalicznym. Stan amorficzny ma wyższą rezystancję, oznaczającą 0, niż stan krystaliczny, oznaczający 1. Przypisując wartości danych do rezystancji pośrednich, PCM można wykorzystać do przechowywania wielu stanów jako MLC.

Pamięć o dostępie swobodnym z przeniesieniem momentu obrotowego (STT-RAM)

STT-RAM składa się z dwóch ferromagnetycznych, trwałych warstw magnetycznych oddzielonych dielektrykiem, izolatorem, który może przenosić siłę elektryczną bez przewodzenia. Przechowuje bity danych w oparciu o różnice w kierunkach magnetycznych. Jedna warstwa magnetyczna, zwana warstwą odniesienia, ma stały kierunek magnetyczny, podczas gdy druga warstwa magnetyczna, zwana warstwą swobodną, ​​ma kierunek magnetyczny kontrolowany przez przepływający prąd. Dla 1 kierunek magnesowania dwóch warstw jest wyrównany. Dla 0 obie warstwy mają przeciwne kierunki magnetyczne.

Rezystancyjna pamięć o dostępie swobodnym (ReRAM)
Ogniwo ReRAM składa się z dwóch metalowych elektrod oddzielonych warstwą tlenku metalu. Trochę jak w projekcie pamięci flash Masuoki, gdzie elektrony przenikają przez warstwę tlenku i utkną w pływającej bramce lub odwrotnie. Jednak w przypadku ReRAM stan ogniwa określa się na podstawie stężenia wolnego tlenu w warstwie tlenku metalu.

Chociaż technologie te są obiecujące, nadal mają wady. PCM i STT-RAM mają duże opóźnienia zapisu. Opóźnienia PCM są dziesięciokrotnie większe niż w przypadku DRAM, podczas gdy opóźnienia STT-RAM są dziesięciokrotnie większe niż w przypadku SRAM. PCM i ReRAM mają ograniczenie czasu trwania zapisu, zanim wystąpi poważny błąd, co oznacza, że ​​element pamięci utknie pewną wartość.

W sierpniu 2015 roku firma Intel ogłosiła wypuszczenie Optane, swojego produktu opartego na 3DXPoint. Optane zapewnia 1000 razy większą wydajność niż dyski SSD NAND przy cenie od czterech do pięciu razy wyższej niż pamięć flash. Optane jest dowodem na to, że SCM to coś więcej niż tylko technologia eksperymentalna. Ciekawie będzie obserwować rozwój tych technologii.

Dyski twarde (HDD)

Dysk twardy z helem (HHDD)

Dysk helowy to dysk twardy o dużej pojemności (HDD), który jest napełniany helem i hermetycznie zamykany w procesie produkcyjnym. Podobnie jak inne dyski twarde, jak powiedzieliśmy wcześniej, przypomina gramofon z magnetycznie pokrytym wirującym talerzem. Typowe dyski twarde mają po prostu powietrze wewnątrz wnęki, ale powietrze to powoduje pewien opór podczas obracania się talerzy.

Balony z helem unoszą się na wodzie, ponieważ hel jest lżejszy od powietrza. W rzeczywistości hel stanowi 1/7 gęstości powietrza, co zmniejsza siłę hamowania podczas obracania się tarcz, powodując zmniejszenie ilości energii potrzebnej do obracania tarcz. Jednak ta cecha jest drugorzędna, główną cechą wyróżniającą hel było to, że pozwala na spakowanie 7 płytek w tej samej obudowie, w której normalnie zmieściłoby się tylko 5. Jeśli pamiętamy analogię do naszego skrzydła samolotu, to jest to doskonała analogia . Ponieważ hel zmniejsza opór, turbulencje są eliminowane.

Wiemy również, że balony z helem zaczynają tonąć już po kilku dniach, ponieważ wydobywa się z nich hel. To samo można powiedzieć o urządzeniach pamięci masowej. Minęło wiele lat, zanim producentom udało się stworzyć pojemnik zapobiegający wydostawaniu się helu z obudowy przez cały okres eksploatacji dysku. Firma Backblaze przeprowadziła eksperymenty i odkryła, że ​​roczny współczynnik błędów dysków helowych wynosi 1,03% w porównaniu z 1,06% w przypadku dysków standardowych. Oczywiście różnica ta jest na tyle mała, że ​​można z niej wyciągnąć poważne wnioski całkiem twardy.

Obudowa wypełniona helem może zawierać dysk twardy zamknięty w technologii PMR, co omówiliśmy powyżej, lub zapis magnetyczny w trybie mikrofalowym (MAMR) lub zapis magnetyczny wspomagany ciepłem (HAMR). Każdą technologię przechowywania magnetycznego można połączyć z helem zamiast powietrza. W 2014 roku firma HGST połączyła dwie najnowocześniejsze technologie w swoim dysku twardym z helem o pojemności 10 TB, który wykorzystywał kontrolowany przez hosta zapis magnetyczny metodą gontową, czyli SMR (nagrywanie magnetyczne metodą gontową). Porozmawiajmy trochę o SMR, a następnie spójrzmy na MAMR i HAMR.

Technologia zapisu magnetycznego płytek

Wcześniej przyglądaliśmy się prostopadłemu zapisowi magnetycznemu (PMR), który był poprzednikiem SMR. W przeciwieństwie do PMR, SMR rejestruje nowe ścieżki, które pokrywają się z wcześniej nagraną ścieżką magnetyczną. To z kolei sprawia, że ​​poprzedni tor jest węższy, co pozwala na większą gęstość torów. Nazwa technologii wzięła się stąd, że tory okrążeniowe bardzo przypominają tory dachowe pokryte dachówką.

SMR powoduje znacznie bardziej złożony proces zapisu, ponieważ zapis na jednej ścieżce zastępuje sąsiednią ścieżkę. Nie ma to miejsca, gdy podłoże dysku jest puste, a dane są przesyłane sekwencyjnie. Jednak gdy tylko nagrasz serię utworów, które już zawierają dane, istniejące sąsiednie dane zostaną usunięte. Jeżeli sąsiednia ścieżka zawiera dane, należy ją zapisać od nowa. Jest to dość podobne do pamięci flash NAND, o której mówiliśmy wcześniej.

Urządzenia SMR ukrywają tę złożoność poprzez zarządzanie oprogramowaniem sprzętowym, co skutkuje interfejsem podobnym do każdego innego dysku twardego. Z drugiej strony urządzenia SMR zarządzane przez hosta, bez specjalnego dostosowania aplikacji i systemów operacyjnych, nie pozwolą na użycie tych dysków. Host musi zapisywać na urządzeniach ściśle sekwencyjnie. Jednocześnie wydajność urządzeń jest w 100% przewidywalna. Firma Seagate rozpoczęła sprzedaż dysków SMR w 2013 roku, zapewniając o 25% większą gęstość przekracza Gęstość PMR.

Mikrofalowy zapis magnetyczny (MAMR)

Zapis magnetyczny wspomagany mikrofalami (MAMR) to technologia pamięci magnetycznej, która wykorzystuje energię podobną do HAMR (omówioną dalej).Ważną częścią MAMR jest oscylator momentu obrotowego (STO). Sam STO znajduje się w pobliżu głowicy rejestrującej. Po przyłożeniu prądu do STO generowane jest kołowe pole elektromagnetyczne o częstotliwości 20–40 GHz w wyniku polaryzacji spinów elektronów.

Pod wpływem takiego pola w ferromagnesie stosowanym w MAMR następuje rezonans, co prowadzi do precesji momentów magnetycznych domen w tym polu. Zasadniczo moment magnetyczny odchyla się od swojej osi i do zmiany jego kierunku (odwrócenia) głowica rejestrująca potrzebuje znacznie mniej energii.

Zastosowanie technologii MAMR umożliwia przyjęcie substancji ferromagnetycznych o większej sile koercji, co oznacza, że ​​można zmniejszyć wielkość domen magnetycznych bez obawy wywołania efektu superparamagnetycznego. Generator STO pomaga zmniejszyć wielkość głowicy rejestrującej, co umożliwia zapis informacji na mniejszych domenach magnetycznych, a co za tym idzie zwiększa gęstość zapisu.

Firma Western Digital, znana również jako WD, wprowadziła tę technologię w 2017 roku. Niedługo potem, w 2018 roku, Toshiba wspierała tę technologię. Podczas gdy WD i Toshiba pracują nad technologią MAMR, Seagate stawia na HAMR.

Zapis termomagnetyczny (HAMR)

Zapis magnetyczny wspomagany ciepłem (HAMR) to energooszczędna technologia magnetycznego przechowywania danych, która może znacznie zwiększyć ilość danych, które można zapisać na urządzeniu magnetycznym, takim jak dysk twardy, dzięki wykorzystaniu ciepła dostarczanego przez laser do wspomagania zapisu dane na powierzchniowe podłoża dysków twardych. Ogrzewanie powoduje, że bity danych są umieszczane znacznie bliżej siebie na podłożu dysku, co pozwala na zwiększenie gęstości i pojemności danych.

Technologia ta jest dość trudna do wdrożenia. Szybki laser o mocy 200 mW nagrzewa niewielkiego obszaru do 400°C przed nagraniem, bez zakłócania lub uszkadzania pozostałych danych na dysku. Proces ogrzewania, rejestrowania danych i chłodzenia musi zostać zakończony w czasie krótszym niż nanosekunda. Sprostanie tym wyzwaniom wymagało opracowania plazmonów powierzchniowych w skali nano, znanych również jako lasery naprowadzane powierzchniowo, zamiast bezpośredniego ogrzewania laserowego, a także nowych typów płytek szklanych i powłok zapewniających kontrolę termiczną, aby wytrzymać szybkie nagrzewanie punktowe bez uszkadzania głowicy rejestrującej ani znajdujących się w pobliżu danych i różne inne wyzwania techniczne, które należało pokonać.

Pomimo licznych sceptycznych wypowiedzi, firma Seagate po raz pierwszy zademonstrowała tę technologię w 2013 roku. Pierwsze płyty rozpoczęły się w 2018 roku.

Koniec filmu, przejdź do początku!

Zaczęliśmy w 1951 roku i kończymy artykuł spojrzeniem w przyszłość technologii przechowywania. Przechowywanie danych uległo znacznym zmianom na przestrzeni czasu, począwszy od taśmy papierowej po taśmę metalową i magnetyczną, pamięć linową, dyski wirujące, dyski optyczne, pamięć flash i inne. Postęp zaowocował szybszymi, mniejszymi i potężniejszymi urządzeniami pamięci masowej.

Jeśli porównasz NVMe z metalową taśmą UNISERVO z 1951 roku, NVMe może odczytać o 486% więcej cyfr na sekundę. Porównując NVMe z moimi ulubionymi dyskami Zip z dzieciństwa, NVMe może odczytać o 111% więcej cyfr na sekundę.

Jedyne, co pozostaje prawdziwe, to użycie 0 i 1. Sposoby, w jakie to robimy, są bardzo różne. Mam nadzieję, że następnym razem, gdy będziesz nagrywać płytę CD-RW z piosenkami dla przyjaciela lub zapisywać domowe wideo w Optical Disc Archive, pomyślisz o tym, jak powierzchnia nieodblaskowa przekłada się na 0, a powierzchnia odblaskowa przekłada się na 1. Lub jeśli nagrywasz składankę na kasecie, pamiętaj, że jest ona bardzo blisko związana z kasetą danych używaną w Commodore PET. Na koniec nie zapomnij być miły i przewinąć do tyłu.

Dzięki Roberta Mustacchiego и Ricka Alterę za ciekawostki (nie mogę się powstrzymać) w całym artykule!

Co jeszcze można przeczytać na blogu? Cloud4Y

Pisanki na mapach topograficznych Szwajcarii
Marki komputerowe lat 90., część 1
Jak matka hakera weszła do więzienia i zainfekowała komputer szefa
Diagnostyka połączeń sieciowych na wirtualnym routerze EDGE
Jak upadł bank?

Zapisz się do naszego Telegram-channel, żeby nie przegapić kolejnego artykułu! Piszemy nie częściej niż dwa razy w tygodniu i tylko w sprawach służbowych. Przypominamy również, że Cloud4Y może zapewnić bezpieczny i niezawodny zdalny dostęp do aplikacji biznesowych i informacji niezbędnych do zapewnienia ciągłości działania. Praca zdalna stanowi dodatkową barierę w rozprzestrzenianiu się koronowirusa. Aby uzyskać szczegółowe informacje, skontaktuj się z naszymi menedżerami pod adresem witryna internetowa.

Źródło: www.habr.com

Dodaj komentarz