Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1

Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1
Co było, jest tym, co będzie;
a to, co zostało zrobione, jest tym, co zostanie zrobione,
i nie ma nic nowego pod słońcem.

Księga Kaznodziei 1:9

Odwieczna mądrość zawarta w motto ma zastosowanie niemal w każdej branży, także tak szybko zmieniającej się jak IT. Tak naprawdę okazuje się, że wiele know-how, o którym dopiero teraz zaczyna się mówić, opiera się na wynalazkach dokonanych kilkadziesiąt lat temu i nawet z powodzeniem (lub mniej skutecznie) stosowanych w urządzeniach konsumenckich czy w sferze B2B. Dotyczy to także tak z pozoru nowomodnego trendu, jakim są gadżety mobilne i przenośne nośniki danych, o czym szczegółowo porozmawiamy w dzisiejszym materiale.

Przykładów nie trzeba szukać daleko. Weź te same telefony komórkowe. Jeśli myślisz, że pierwszym „inteligentnym” urządzeniem, które nie miało całkowicie klawiatury, był iPhone, który pojawił się dopiero w 2007 roku, to głęboko się mylisz. Pomysł stworzenia prawdziwego smartfona, łączącego w jednej obudowie narzędzie komunikacyjne i możliwości PDA, nie należy do Apple, ale do IBM, a pierwsze tego typu urządzenie zostało zaprezentowane opinii publicznej 23 listopada , 1992 w ramach wystawy osiągnięć branży telekomunikacyjnej COMDEX, która odbyła się w Las Vegas, a ten cud technologii wszedł do masowej produkcji już w 1994 roku.

Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1
IBM Simon Personal Communicator – pierwszy na świecie smartfon z ekranem dotykowym

Komunikator osobisty IBM Simon był pierwszym telefonem komórkowym, który w zasadzie nie posiadał klawiatury, a wprowadzanie informacji odbywało się wyłącznie za pomocą ekranu dotykowego. Jednocześnie gadżet łączył w sobie funkcjonalność organizera, umożliwiając wysyłanie i odbieranie faksów oraz pracę z pocztą elektroniczną. W razie potrzeby IBM Simon można podłączyć do komputera osobistego w celu wymiany danych lub wykorzystać jako modem o wydajności 2400 bps. Swoją drogą wprowadzanie informacji tekstowych zaimplementowano w dość pomysłowy sposób: właściciel miał do wyboru miniaturową klawiaturę QWERTY, która przy przekątnej wyświetlacza 4,7 cala i rozdzielczości 160x293 pikseli nie była szczególnie wygodna w obsłudze, a inteligentny asystent PredictaKey. Ten ostatni wyświetlał jedynie 6 kolejnych znaków, które według algorytmu predykcyjnego mogły zostać użyte z największym prawdopodobieństwem.

Najlepszym epitetem, jakim można scharakteryzować IBM Simona jest „wyprzedzenie swoich czasów”, co ostatecznie przesądziło o całkowitym fiasku tego urządzenia na rynku. Z jednej strony nie było wówczas technologii, które uczyniły komunikator naprawdę wygodnym: niewiele osób chciałoby nosić ze sobą urządzenie o wymiarach 200x64x38 mm i wadze 623 gramy (a razem ze stacją ładującą ponad 1 kg), Bateria wytrzymywała tylko 1 godzinę w trybie rozmowy i 12 godzin w trybie czuwania. Natomiast cena wynosi: 899 dolarów z umową od operatora komórkowego BellSouth, który stał się oficjalnym partnerem IBM w USA, i ponad 1000 dolarów bez niej. Nie zapominajmy też o możliwości (a właściwie konieczności) zakupu pojemniejszego akumulatora – „tylko” za 78 dolarów.

Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1
Wizualne porównanie IBM Simon, nowoczesnych smartfonów i szyszki jodłowej

W przypadku zewnętrznych urządzeń pamięci masowej sprawa również nie jest taka prosta. Według relacji z Hamburga stworzenie pierwszego takiego urządzenia ponownie można przypisać IBM. 11 października 1962 roku korporacja ogłosiła rewolucyjny system przechowywania danych IBM 1311. Kluczową cechą nowego produktu było zastosowanie wymiennych wkładów, z których każdy zawierał sześć 14-calowych płytek magnetycznych. Choć ten wymienny dysk ważył 4,5 kilograma, i tak było to ważne osiągnięcie, bo przynajmniej można było wymieniać napełnione wkłady i przenosić je pomiędzy instalacjami, z których każda miała wielkość imponującej komody.

Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1
IBM 1311 - przechowywanie danych na wymiennych dyskach twardych

Ale nawet za taką mobilność musieliśmy za nią zapłacić wydajnością i pojemnością. Po pierwsze, aby zapobiec uszkodzeniu danych, zewnętrzne strony płyt 1. i 6. zostały pozbawione warstwy magnetycznej, pełniąc jednocześnie funkcję ochronną. Ponieważ do nagrywania używano obecnie zaledwie 10 samolotów, łączna pojemność dysku wymiennego wynosiła 2,6 megabajta, co na tamte czasy było jeszcze całkiem sporo: jedna kaseta z powodzeniem zastąpiła ⅕ standardowej rolki folii magnetycznej lub 25 tysięcy kart dziurkowanych, zaś zapewniając swobodny dostęp do danych.

Po drugie, ceną za mobilność był spadek wydajności: prędkość wrzeciona musiała zostać zmniejszona do 1500 obr/min, w wyniku czego średni czas dostępu do sektora wzrósł do 250 milisekund. Dla porównania poprzednik tego urządzenia, IBM 1301, miał prędkość wrzeciona 1800 obr/min i czas dostępu do sektora 180 ms. Jednak to dzięki zastosowaniu wymiennych dysków twardych IBM 1311 stał się bardzo popularny w środowisku korporacyjnym, ponieważ ostatecznie ten projekt umożliwił znaczne obniżenie kosztów przechowywania jednostki informacji, umożliwiając zmniejszenie liczby zakupionych instalacji i powierzchni potrzebnej do ich umieszczenia. Dzięki temu urządzenie okazało się jednym z najdłużej żyjących według standardów rynku sprzętu komputerowego i zostało wycofane dopiero w 1975 roku.

Następca IBM 1311, który otrzymał indeks 3340, powstał w wyniku rozwoju pomysłów włączonych przez inżynierów korporacji do konstrukcji poprzedniego modelu. Nowy system przechowywania danych otrzymał całkowicie uszczelnione kartridże, dzięki czemu z jednej strony udało się zneutralizować wpływ czynników środowiskowych na płyty magnetyczne, zwiększając ich niezawodność, a jednocześnie znacząco poprawić aerodynamikę wewnątrz kaset. Obrazu dopełniał mikrokontroler odpowiedzialny za poruszanie głowicami magnetycznymi, którego obecność pozwoliła znacząco zwiększyć dokładność ich pozycjonowania.

Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1
IBM 3340, nazywany Winchester

W rezultacie pojemność każdego wkładu wzrosła do 30 megabajtów, a czas dostępu do sektora spadł dokładnie 10 razy - do 25 milisekund. Jednocześnie prędkość przesyłania danych osiągnęła rekordowy w tym czasie poziom 885 kilobajtów na sekundę. Nawiasem mówiąc, to dzięki IBM 3340 zaczęto używać żargonu „Winchester”. Faktem jest, że urządzenie zostało zaprojektowane do jednoczesnej pracy z dwoma dyskami wymiennymi, dlatego otrzymało dodatkowy indeks „30-30”. Słynny na całym świecie karabin Winchester miał ten sam indeks, z tą tylko różnicą, że jeśli w pierwszym przypadku mówiliśmy o dwóch dyskach o pojemności 30 MB, to w drugim o kalibrze pocisku (0,3 cala) i masa prochu w kapsułce (30 ziaren, czyli około 1,94 grama).

Dyskietka - prototyp nowoczesnych napędów zewnętrznych

Chociaż to wkłady do IBM 1311 można uznać za praprapradziadków współczesnych zewnętrznych dysków twardych, urządzenia te wciąż były nieskończenie dalekie od rynku konsumenckiego. Aby jednak kontynuować drzewo genealogiczne mobilnych nośników danych, należy najpierw określić kryteria wyboru. Oczywiście karty dziurkowane zostaną pozostawione w tyle, ponieważ są technologią ery „przed dyskowej”. Nie warto też rozważać napędów opartych na taśmach magnetycznych: choć formalnie szpula ma taką właściwość, jak mobilność, to jej wydajności nie można porównywać nawet z pierwszymi przykładami dysków twardych z prostego powodu, że taśma magnetyczna zapewnia jedynie sekwencyjny dostęp do nagranego materiału. dane. Zatem dyski „miękkie” są najbliższe dyskom twardym pod względem właściwości konsumenckich. I to prawda: dyskietki są dość kompaktowe, ale podobnie jak dyski twarde wytrzymują wielokrotne przepisywanie i mogą działać w trybie odczytu losowego. Zacznijmy od nich.

Jeśli spodziewasz się ponownie zobaczyć trzy cenne listy, to... masz całkowitą rację. Przecież to właśnie w laboratoriach IBM grupa badawcza Alana Shugarta poszukiwała godnego zamiennika taśm magnetycznych, które świetnie radziły sobie z archiwizacją danych, ale w codziennych zadaniach ustępowały dyskom twardym. Odpowiednie rozwiązanie zaproponował, który dołączył do zespołu starszy inżynier David Noble i w 1967 roku zaprojektował wymienny dysk magnetyczny z obudową ochronną, który obsługiwał się za pomocą specjalnego napędu dyskowego. 4 lata później IBM wprowadził pierwszą na świecie dyskietkę, która miała pojemność 80 kilobajtów i średnicę 8 cali, a już w 1972 roku wypuszczono drugą generację dyskietek, których pojemność wynosiła już 128 kilobajtów.

Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1
Dyskietka IBM 8-calowa o pojemności 128 kilobajtów

W obliczu sukcesu dyskietek już w 1973 roku Alan Shugart zdecydował się opuścić korporację i założyć własną firmę o nazwie Shugart Associates. Nowa firma zaczęła dalej udoskonalać dyskietki: w 1976 roku firma wprowadziła na rynek dyskietki kompaktowe 5,25 cala i oryginalne stacje dyskietek ze zaktualizowanym kontrolerem i interfejsem. Koszt minidyskietki Shugart SA-400 na początku sprzedaży wynosił 390 dolarów za sam napęd i 45 dolarów za zestaw dziesięciu dyskietek. W całej historii firmy to właśnie SA-400 stał się produktem odnoszącym największe sukcesy: tempo dostaw nowych urządzeń osiągnęło 4000 sztuk dziennie, a dyskietki 5,25-calowe stopniowo wypierały z rynku swoje nieporęczne ośmiocalowe odpowiedniki. sklep.

Jednak firmie Alana Shugarta nie udało się długo zdominować rynku: już w 1981 roku pałeczkę przejęło Sony, wprowadzając jeszcze mniejszą dyskietkę, której średnica wynosiła zaledwie 90 mm, czyli 3,5 cala. Pierwszym komputerem PC, w którym zastosowano wbudowany napęd dyskowy nowego formatu, był HP-150, wydany przez firmę Hewlett-Packard w 1984 roku.

Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1
Pierwszy komputer osobisty z dyskiem 3,5 cala Hewlett-Packard HP-150

Dyskietka Sony okazała się na tyle udana, że ​​szybko zastąpiła wszystkie alternatywne rozwiązania na rynku, a sama forma przetrwała prawie 30 lat: masową produkcję dyskietek 3,5-calowych zakończono dopiero w 2010 roku. Na popularność nowego produktu złożyło się kilka czynników:

  • twarda plastikowa obudowa i przesuwana metalowa klapka zapewniały niezawodną ochronę samego dysku;
  • dzięki obecności metalowej tulei z otworem do prawidłowego pozycjonowania nie było konieczności wykonywania otworu bezpośrednio w dysku magnetycznym, co również miało korzystny wpływ na jego bezpieczeństwo;
  • za pomocą suwaka zastosowano zabezpieczenie przed zapisem (wcześniej, aby zablokować możliwość powtórnego zapisu, trzeba było zakleić taśmą wycięcie kontrolne na dyskietce).

Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1
Ponadczasowa klasyka - dyskietka 3,5 cala firmy Sony

Oprócz zwartości, dyskietki 3,5-calowe miały także znacznie większą pojemność w porównaniu do swoich poprzedników. Tak więc najbardziej zaawansowane dyskietki o dużej gęstości 5,25 cala, które pojawiły się w 1984 roku, zawierały 1200 kilobajtów danych. Choć pierwsze próbki 3,5-calowe miały pojemność 720 KB i były pod tym względem identyczne z dyskietkami 5-calowymi o poczwórnej gęstości, to już w 1987 roku pojawiły się dyskietki o dużej gęstości 1,44 MB, a w 1991 - dyskietki o rozszerzonej gęstości, mieszczący 2,88 MB danych.

Niektóre firmy próbowały stworzyć jeszcze mniejsze dyskietki (na przykład Amstrad opracował 3-calowe dyskietki, które zastosowano w ZX Spectrum +3, a Canon wyprodukował 2-calowe specjalistyczne dyskietki do nagrywania i przechowywania kompozytowego wideo), ale nigdy im się to nie udało. przyłapany na. Ale na rynku zaczęły pojawiać się urządzenia zewnętrzne, które ideologicznie były znacznie bliższe nowoczesnym dyskom zewnętrznym.

Pudełko Bernoulliego Iomegi i złowieszcze „kliknięcia śmierci”

Cokolwiek można powiedzieć, dyskietki były zbyt małe, aby pomieścić wystarczająco duże ilości informacji: według współczesnych standardów można je porównać z podstawowymi dyskami flash. Ale co w tym przypadku można nazwać analogiem zewnętrznego dysku twardego lub dysku SSD? Do tej roli najlepiej nadają się produkty Iomega.

Ich pierwszym urządzeniem, wprowadzonym na rynek w 1982 roku, była tzw. skrzynka Bernoulliego. Pomimo dużej jak na tamte czasy pojemności (pierwsze dyski miały pojemność 5, 10 i 20 MB), oryginalne urządzenie nie cieszyło się popularnością ze względu na, bez przesady, jego gigantyczne wymiary: „dyskietki” firmy Iomega miały wymiary 21 na 27,5 cm, co odpowiada kartce papieru A4.

Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1
Tak wyglądały oryginalne wkładki do pudełka Bernoulliego

Urządzenia tej firmy zyskały popularność od czasów Bernoulli Box II. Wymiary napędów uległy znacznemu zmniejszeniu: miały już długość 14 cm i szerokość 13,6 cm (co jest porównywalne ze standardowymi dyskietkami 5,25-calowymi, jeśli nie uwzględnić grubości 0,9 cm), natomiast charakteryzujący się znacznie większą pojemnością: od 20 MB dla modeli podstawowych do 230 MB dla dysków, które weszły do ​​sprzedaży w 1993 roku. Urządzenia tego typu występowały w dwóch formatach: jako moduły wewnętrzne do komputerów PC (dzięki zmniejszonym rozmiarom można je było instalować w miejsce czytników dyskietek 5,25 cala) oraz jako zewnętrzne systemy pamięci masowej podłączane do komputera poprzez interfejs SCSI.

Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1
Skrzynka Bernoulliego drugiej generacji

Bezpośrednimi następcami pudełka Bernoulliego była wprowadzona na rynek w 1994 roku Iomega ZIP. Ich popularyzację znacznie ułatwiła współpraca z firmami Dell i Apple, które rozpoczęły instalowanie dysków ZIP w swoich komputerach. Pierwszy model, ZIP-100, wykorzystywał dyski o pojemności 100 663 296 bajtów (około 96 MB), szczycił się szybkością przesyłania danych na poziomie około 1 MB/s i czasem dostępu losowego nie większym niż 28 milisekund, a dyski zewnętrzne mogły być podłączony do komputera PC poprzez LPT lub SCSI. Nieco później pojawił się ZIP-250 o pojemności 250 640 384 bajtów (239 MB), a pod koniec serii - ZIP-750, które są wstecznie kompatybilne z napędami ZIP-250 i obsługują pracę z ZIP-100 w trybie starszym ( z przestarzałych dysków możliwy był jedynie odczyt informacji). Nawiasem mówiąc, zewnętrznym flagowcom udało się nawet uzyskać obsługę USB 2.0 i FireWire.

Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1
Dysk zewnętrzny Iomega ZIP-100

Wraz z pojawieniem się CD-R/RW twórczość Iomegi w naturalny sposób odeszła w zapomnienie – sprzedaż urządzeń zaczęła spadać, do 2003 roku spadła prawie czterokrotnie, by już w 2007 roku całkowicie zaniknąć (mimo że likwidacja produkcji nastąpiła dopiero w 2010 roku). Sprawy mogłyby potoczyć się inaczej, gdyby ZIP nie miał pewnych problemów z niezawodnością.

Rzecz w tym, że imponującą jak na tamte lata wydajność urządzeń zapewniła rekordowa prędkość obrotowa: dyskietka obracała się z prędkością 3000 obr/min! Pewnie już zgadłeś, dlaczego pierwsze urządzenia nazywano po prostu puszką Bernoulliego: ze względu na dużą prędkość obrotową płytki magnetycznej przepływ powietrza między głowicą piszącą a jej powierzchnią przyspieszył, w wyniku czego spadło ciśnienie powietrza którego dysk przesunął się bliżej czujnika (prawo Bernoulliego w działaniu). Teoretycznie ta funkcja powinna zwiększyć niezawodność urządzenia, jednak w praktyce konsumenci musieli stawić czoła tak nieprzyjemnemu zjawisku, jak Clicks of Death. Każdy, nawet najmniejszy zadzior na płycie magnetycznej poruszającej się z ogromną prędkością mógłby nieodwracalnie uszkodzić głowicę zapisującą, po czym napęd zaparkowałby aktuator i ponawiał próbę odczytu, której towarzyszyły charakterystyczne kliknięcia. Taka awaria była „zaraźliwa”: jeśli użytkownik nie zorientował się natychmiast i nie włożył kolejnej dyskietki do uszkodzonego urządzenia, to po kilku próbach odczytu również stało się ono bezużyteczne, ponieważ głowica zapisująca o zepsutej geometrii sama uszkodziła urządzenie powierzchni dyskietki. Jednocześnie dyskietka z zadziorami może natychmiast „zabić” innego czytelnika. Dlatego osoby pracujące z produktami Iomega musiały dokładnie sprawdzić przydatność dyskietek, a w późniejszych modelach pojawiły się nawet odpowiednie etykiety ostrzegawcze.

Dyski magnetooptyczne: styl retro HAMR

Wreszcie, jeśli mówimy już o przenośnych nośnikach danych, nie możemy nie wspomnieć o takim cudzie technologii, jak dyski magnetooptyczne (MO). Pierwsze urządzenia tej klasy pojawiły się na początku lat 80-tych XX wieku, jednak największe rozpowszechnienie zyskały dopiero w 1988 roku, kiedy firma NeXT wprowadziła na rynek swój pierwszy komputer PC o nazwie NeXT Computer, który był wyposażony w napęd magnetooptyczny firmy Canon i wspomagał pracę z dyskami o pojemności 256 MB.

Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1
Komputer NeXT - pierwszy komputer PC wyposażony w napęd magnetooptyczny

Samo istnienie dysków magnetooptycznych po raz kolejny potwierdza poprawność motto: chociaż technologia zapisu termomagnetycznego (HAMR) jest aktywnie dyskutowana dopiero w ostatnich latach, podejście to z powodzeniem zastosowano w MO ponad 30 lat temu! Zasada nagrywania na dyskach magnetooptycznych jest podobna do HAMR, z wyjątkiem pewnych niuansów. Same dyski wykonano z ferromagnetyków – stopów zdolnych do utrzymania namagnesowania w temperaturach poniżej punktu Curie (około 150 stopni Celsjusza) przy braku ekspozycji na zewnętrzne pole magnetyczne. Podczas rejestracji powierzchnię płyty podgrzewano laserem do temperatury punktu Curie, po czym głowica magnetyczna umieszczona na tylnej stronie dysku zmieniała namagnesowanie odpowiedniego obszaru.

Kluczowa różnica między tym podejściem a HAMR polegała na tym, że informację odczytywano także za pomocą lasera małej mocy: spolaryzowana wiązka lasera przechodziła przez płytkę dysku, odbita od podłoża, a następnie przechodząc przez układ optyczny czytnika, trafiała w czujnik, który rejestrował zmianę płaskiej polaryzacji lasera. Można tu zaobserwować praktyczne zastosowanie efektu Kerra (kwadratowy efekt elektrooptyczny), którego istotą jest zmiana współczynnika załamania światła materiału optycznego proporcjonalnie do kwadratu natężenia pola elektromagnetycznego.

Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1
Zasada odczytu i zapisu informacji na dyskach magnetooptycznych

Pierwsze dyski magnetooptyczne nie obsługiwały przepisywania i były oznaczone skrótem WORM (Write Once, Read Many), ale później pojawiły się modele obsługujące wielokrotny zapis. Przepisanie przeprowadzono w trzech przebiegach: najpierw usunięto informacje z dysku, następnie przeprowadzono samo nagranie, po czym sprawdzono integralność danych. Takie podejście zapewniło gwarantowaną jakość nagrywania, dzięki czemu płyty MO są jeszcze bardziej niezawodne niż płyty CD i DVD. I w przeciwieństwie do dyskietek, nośniki magnetooptyczne praktycznie nie podlegały rozmagnesowaniu: według szacunków producentów czas przechowywania danych na MO wielokrotnego zapisu wynosi co najmniej 50 lat.

Już w 1989 roku na rynku pojawiły się dwustronne dyski 5,25 cala o pojemności 650 MB, zapewniające prędkość odczytu do 1 MB/s i czasy dostępu losowego od 50 do 100 ms. U schyłku popularności MO na rynku można było znaleźć modele mogące pomieścić aż 9,1 GB danych. Jednak najczęściej stosowane są dyski kompaktowe 90 mm o pojemnościach od 128 do 640 MB.

Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1
Kompaktowy napęd magnetooptyczny 640 MB firmy Olympus

Do 1994 roku jednostkowy koszt 1 MB danych przechowywanych na takim dysku wahał się w zależności od producenta od 27 do 50 centów, co w połączeniu z dużą wydajnością i niezawodnością czyniło je rozwiązaniem całkowicie konkurencyjnym. Dodatkową zaletą urządzeń magnetooptycznych w porównaniu do tych samych ZIP-ów była obsługa szerokiej gamy interfejsów, w tym ATAPI, LPT, USB, SCSI, IEEE-1394a.

Pomimo wszystkich zalet magnetooptyka miała również szereg wad. Na przykład dyski różnych marek (a MO było produkowane przez wiele dużych firm, w tym Sony, Fujitsu, Hitachi, Maxell, Mitsubishi, Olympus, Nikon, Sanyo i inne) okazały się ze sobą niezgodne ze względu na funkcje formatowania. Z kolei duży pobór mocy i konieczność stosowania dodatkowego układu chłodzenia ograniczały zastosowanie tego typu dysków w laptopach. Ostatecznie trzykrotny cykl znacznie wydłużył czas nagrywania, a problem ten został rozwiązany dopiero w 1997 roku wraz z pojawieniem się technologii LIMDOW (Light Intensity Modulated Direct Overwrite), która połączyła dwa pierwsze etapy w jeden poprzez dodanie wbudowanych w płytę magnesów kaseta, która przeprowadziła usuwanie informacji. W rezultacie magnetooptyka stopniowo traciła na znaczeniu nawet w dziedzinie długotrwałego przechowywania danych, ustępując miejsca klasycznym streamerom LTO.

I zawsze czegoś mi brakuje…

Wszystko, co zostało powyżej powiedziane, jasno ilustruje prosty fakt, że niezależnie od tego, jak genialny może być wynalazek, musi on, między innymi, być aktualny. IBM Simon był skazany na porażkę, ponieważ w momencie jego pojawienia się ludzie nie potrzebowali absolutnej mobilności. Dyski magnetooptyczne stały się dobrą alternatywą dla dysków twardych, ale pozostały w kręgu profesjonalistów i entuzjastów, ponieważ w tamtym czasie dla masowego konsumenta znacznie ważniejsza była szybkość, wygoda i oczywiście niski koszt, na co gotowy był przeciętny nabywca poświęcić niezawodność. Te same ZIP-y, pomimo wszystkich swoich zalet, nigdy nie mogły stać się naprawdę mainstreamowe, ponieważ ludzie nie chcieli patrzeć na każdą dyskietkę pod lupą w poszukiwaniu zadziorów.

Dlatego dobór naturalny ostatecznie wyraźnie podzielił rynek na dwa równoległe obszary: wymienne nośniki danych (CD, DVD, Blu-Ray), dyski flash (do przechowywania małych ilości danych) i zewnętrzne dyski twarde (do dużych ilości). Wśród tych ostatnich niewypowiedzianym standardem stały się kompaktowe modele 2,5-calowe w indywidualnych obudowach, których wygląd zawdzięczamy przede wszystkim laptopom. Kolejnym powodem ich popularności jest opłacalność: o ile klasyczne dyski twarde 3,5 cala w obudowie zewnętrznej trudno nazwać „przenośnymi”, a wymagały koniecznie podłączenia dodatkowego źródła zasilania (co oznaczało, że i tak trzeba było nosić przy sobie adapter) ), wówczas jedyne, czego mogły potrzebować dyski 2,5-calowe, to dodatkowe złącze USB, a późniejsze, energooszczędne modele nawet tego nie wymagały.

Swoją drogą pojawienie się miniaturowych dysków HDD zawdzięczamy PrairieTek, małej firmie założonej przez Terry'ego Johnsona w 1986 roku. Zaledwie trzy lata po swoim odkryciu firma PrairieTek wprowadziła na rynek pierwszy na świecie 2,5-calowy dysk twardy o pojemności 20 MB, nazwany PT-220. 30% bardziej kompaktowy w porównaniu do rozwiązań stacjonarnych, dysk miał wysokość zaledwie 25 mm, dzięki czemu stał się optymalną opcją do zastosowania w laptopach. Niestety, nawet jako pionierzy rynku miniaturowych dysków twardych, PrairieTek nigdy nie był w stanie podbić rynku, popełniając fatalny błąd strategiczny. Po rozpoczęciu produkcji PT-220 skupili swoje wysiłki na dalszej miniaturyzacji, wkrótce wypuszczając model PT-120, który przy tej samej wydajności i charakterystyce prędkości miał grubość zaledwie 17 mm.

Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1
2,5-calowy dysk twardy PrairieTek PT-120 drugiej generacji

Błędem było to, że podczas gdy inżynierowie PrairieTek walczyli o każdy milimetr, konkurenci tacy jak JVC i Conner Peripherals zwiększali pojemność dysków twardych, co okazało się decydujące w tak nierównej konfrontacji. Próbując złapać pociąg, PrairieTek wdał się w wyścig zbrojeń, przygotowując model PT-240, który zawierał 42,8 MB danych i charakteryzował się rekordowo niskim jak na tamte czasy poborem prądu – zaledwie 1,5 W. Ale niestety nawet to nie uchroniło firmy przed ruiną i w rezultacie już w 1991 roku przestała istnieć.

Historia PrairieTek to kolejna wyraźna ilustracja tego, jak postęp technologiczny, niezależnie od tego, jak znaczący może się wydawać, może po prostu zostać niezauważony przez rynek ze względu na jego nieaktualność. Na początku lat 90. konsumenci nie byli jeszcze rozpieszczani ultrabookami i ultracienkimi smartfonami, więc nie było pilnej potrzeby posiadania takich dysków. Wystarczy przypomnieć pierwszy tablet GridPad, wydany przez GRiD Systems Corporation w 1989 roku: „przenośne” urządzenie ważyło ponad 2 kg, a jego grubość sięgała 3,6 cm!

Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1
GridPad – pierwszy na świecie tablet

I takie „dziecko” w tamtych czasach uważano za dość kompaktowe i wygodne: użytkownik końcowy po prostu nie widział nic lepszego. Jednocześnie znacznie bardziej paląca była kwestia miejsca na dysku. Na przykład ten sam GridPad w ogóle nie miał dysku twardego: przechowywanie informacji zostało zrealizowane w oparciu o układy RAM, których ładunek utrzymywany był przez wbudowane akumulatory. Na tle podobnych urządzeń pojawiająca się później Toshiba T100X (DynaPad) wyglądała na prawdziwy cud ze względu na fakt, że miała na pokładzie pełnoprawny dysk twardy o pojemności 40 MB. Fakt, że „mobilne” urządzenie miało 4 centymetry grubości, nikomu nie przeszkadzał.

Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1
Tablet Toshiba T100X, lepiej znany w Japonii jako DynaPad

Ale, jak wiadomo, apetyt pojawia się wraz z jedzeniem. Z każdym rokiem wymagania użytkowników rosły, a ich zaspokojenie stawało się coraz trudniejsze. Wraz ze wzrostem pojemności i szybkości nośników danych coraz więcej osób zaczęło myśleć, że urządzenia mobilne mogłyby być bardziej kompaktowe, a przydałaby się możliwość posiadania przenośnego dysku, na którym zmieściłyby się wszystkie niezbędne pliki. Innymi słowy, istniał popyt na rynku na urządzenia zasadniczo różniące się wygodą i ergonomią, które należało zaspokoić, a konfrontacja pomiędzy firmami IT trwała z nową energią.

W tym miejscu warto powrócić do dzisiejszego motto. Era dysków półprzewodnikowych rozpoczęła się na długo przed rokiem 1984: pierwszy prototyp pamięci flash został stworzony przez inżyniera Fujio Masuokę w firmie Toshiba Corporation już w 1988 roku, a na rynku pojawił się pierwszy komercyjny produkt oparty na nim, Digipro FlashDisk już w 16r. Cud technologiczny zawierał 5000 megabajtów danych, a jego cena wynosiła XNUMX dolarów.

Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1
Digipro FlashDisk – pierwszy komercyjny dysk SSD

Nowy trend wsparła firma Digital Equipment Corporation, która na początku lat 90-tych wprowadziła na rynek 5,25-calowe urządzenia serii EZ5x obsługujące interfejsy SCSI-1 i SCSI-2. Izraelska firma M-Systems nie pozostała z boku, ogłaszając w 1990 roku rodzinę dysków półprzewodnikowych o nazwie Fast Flash Disk (w skrócie FFD), które mniej więcej przypominały współczesne: dyski SSD miały format 3,5 cala i mogły pomieścić od 16 do 896 megabajtów danych. Pierwszy model, nazwany FFD-350, został wypuszczony w 1995 roku.

Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1
M-Systems FFD-350 208 MB - prototyp nowoczesnych dysków SSD

W przeciwieństwie do tradycyjnych dysków twardych, dyski SSD były znacznie bardziej kompaktowe, miały wyższą wydajność i co najważniejsze były odporne na wstrząsy i silne wibracje. Potencjalnie czyniło to je niemal idealnymi kandydatami do tworzenia mobilnych nośników danych, gdyby nie jedno „ale”: wysokie ceny jednostki przechowywania informacji, przez co tego typu rozwiązania okazały się praktycznie nieodpowiednie dla rynku konsumenckiego. Były popularne w środowisku korporacyjnym, wykorzystywano je w lotnictwie do tworzenia „czarnych skrzynek”, instalowano w superkomputerach ośrodków badawczych, ale o stworzeniu produktu detalicznego w tamtym czasie nie było mowy: nikt by ich nie kupił, nawet gdyby każda korporacja zdecydowała się sprzedać takie dyski po kosztach.

Jednak zmiany rynkowe nie trwały długo. Rozwój konsumenckiego segmentu wymiennych dysków SSD znacznie ułatwiła fotografia cyfrowa, ponieważ to właśnie w tej branży dotkliwie brakowało kompaktowych i energooszczędnych nośników pamięci. Oceńcie sami.

Pierwszy na świecie aparat cyfrowy pojawił się (pamiętając słowa Kaznodziei) już w grudniu 1975 roku: został wynaleziony przez Stephena Sassona, inżyniera w firmie Eastman Kodak. Prototyp składał się z kilkudziesięciu płytek drukowanych, układu optycznego pożyczonego od Kodaka Super 8 i magnetofonu (zdjęcia nagrywano na zwykłych kasetach audio). Jako źródło zasilania aparatu wykorzystano 16 akumulatorów niklowo-kadmowych, a całość ważyła 3,6 kg.

Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1
Pierwszy prototyp aparatu cyfrowego stworzony przez firmę Eastman Kodak

Rozdzielczość matrycy CCD tego „dziecka” wyniosła zaledwie 0,01 megapiksela, co pozwoliło uzyskać klatki o wymiarach 125 × 80 pikseli, a wykonanie każdego zdjęcia trwało 23 sekundy. Biorąc pod uwagę tak „imponujące” cechy, jednostka taka pod każdym względem ustępuje tradycyjnym filmowym lustrzankom jednoobiektywowym, co oznacza, że ​​stworzenie na jej podstawie komercyjnego produktu nie wchodziło w grę, choć wynalazek został później uznany za jeden z najważniejszych kamienie milowe w historii rozwoju fotografii, a Steve został oficjalnie wprowadzony do Galerii sław elektroniki użytkowej.

6 lat później Sony przejęło inicjatywę od Kodaka, ogłaszając 25 sierpnia 1981 roku bezfilmową kamerę wideo Mavica (nazwa to skrót od Magnetic Video Camera).

Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1
Prototyp aparatu cyfrowego Sony Mavica

Znacznie ciekawiej wyglądała kamera japońskiego giganta: w prototypie zastosowano matrycę CCD o wymiarach 10 na 12 mm i szczyciła się maksymalną rozdzielczością 570 x 490 pikseli, a zapis odbywał się na kompaktowych 2-calowych dyskietkach Mavipack, które mogły mieszczący od 25 do 50 klatek w zależności od trybu fotografowania. Rzecz w tym, że tworzący się kadr składał się z dwóch pól telewizyjnych, z których każde zostało zarejestrowane jako wideo kompozytowe, i można było rejestrować oba pola na raz, lub tylko jedno. W tym drugim przypadku rozdzielczość kadru spadła 2-krotnie, ale taka fotografia ważyła o połowę mniej.

Sony początkowo planowało rozpocząć masową produkcję Mavicy w 1983 roku, a cena detaliczna aparatów miała wynieść 650 dolarów. W praktyce pierwsze projekty przemysłowe pojawiły się dopiero w 1984 roku, a komercyjne wdrożenie projektu w postaci Mavica MVC-A7AF i Pro Mavica MVC-2000 ujrzało światło dzienne dopiero w 1986 roku, a kamery kosztowały niemal o rząd wielkości więcej niż pierwotnie planowano.

Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1
Aparat cyfrowy Sony Pro Mavica MVC-2000

Pomimo rewelacyjnej ceny i innowacyjności, pierwszą Mavicę trudno było nazwać rozwiązaniem idealnym do użytku profesjonalnego, choć w pewnych sytuacjach takie aparaty okazywały się rozwiązaniem wręcz idealnym. Na przykład reporterzy CNN używali aparatu Sony Pro Mavica MVC-5000 podczas relacjonowania wydarzeń, które miały miejsce 4 czerwca na placu Tiananmen. Ulepszony model otrzymał dwie niezależne matryce CCD, z których jedna generowała sygnał wideo luminancji, a druga sygnał różnicy kolorów. Takie podejście umożliwiło rezygnację ze stosowania filtra barwnego firmy Bayer i zwiększenie rozdzielczości poziomej do 500 linii TV. Jednak główną zaletą kamery była możliwość bezpośredniego połączenia z modułem PSC-6, który umożliwia przesyłanie otrzymanych obrazów drogą radiową bezpośrednio do redakcji. Dzięki temu CNN jako pierwsza mogła opublikować relację ze sceny, a Sony otrzymało później nawet specjalną nagrodę Emmy za wkład w rozwój cyfrowej transmisji zdjęć informacyjnych.

Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1
Sony Pro Mavica MVC-5000 – ten sam aparat, dzięki któremu Sony zdobyło nagrodę Emmy

Co jednak w sytuacji, gdy fotografa czeka długa podróż służbowa z dala od cywilizacji? W takim wypadku mógłby zabrać ze sobą jeden ze wspaniałych aparatów Kodak DCS 100, które wypuszczono na rynek w maju 1991 roku. Monstrualna hybryda małoformatowej lustrzanki jednoobiektywowej Nikon F3 HP z dekoderem cyfrowym DCS Digital Film Back wyposażonym w nawijacz, podłączany był do zewnętrznego Digital Storage Unit (trzeba było go nosić na pasku na ramieniu) za pomocą kabel.

Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1
Aparat cyfrowy Kodak DCS 100 to ucieleśnienie „kompaktowości”

Kodak oferował dwa modele, każdy z nich miał kilka odmian: kolorowy DCS DC3 i czarno-biały DCS DM3. Wszystkie aparaty z linii wyposażone były w matryce o rozdzielczości 1,3 megapiksela, różniły się jednak wielkością bufora, który określał maksymalną dopuszczalną liczbę klatek podczas zdjęć seryjnych. Przykładowo modyfikacje z 8 MB na pokładzie mogły strzelać z prędkością 2,5 klatki na sekundę w serii po 6 klatek, a bardziej zaawansowane, 32 MB, pozwalały na serię o długości 24 klatek. W przypadku przekroczenia tego progu prędkość fotografowania spadała do 1 klatki na 2 sekundy, aż do całkowitego wyczyszczenia bufora.

Jednostka DSU została wyposażona w 3,5-calowy dysk twardy o pojemności 200 MB, mogący pomieścić od 156 „surowych” zdjęć do 600 skompresowanych za pomocą sprzętowego konwertera JPEG (do nabycia i zainstalowanego dodatkowo) oraz wyświetlacz LCD do przeglądania zdjęć . Smart Storage umożliwiał nawet dodawanie krótkich opisów do zdjęć, jednak wymagało to podłączenia zewnętrznej klawiatury. Razem z akumulatorami jego waga wyniosła 3,5 kg, a całkowita waga zestawu sięgała 5 kg.

Pomimo wątpliwej wygody i ceny od 20 do 25 tysięcy dolarów (w maksymalnej konfiguracji) w ciągu najbliższych trzech lat sprzedano około 1000 podobnych urządzeń, którymi oprócz dziennikarzy zainteresowali się instytucje medyczne, policja i szereg przedsiębiorstw przemysłowych. Jednym słowem był popyt na takie produkty, a także pilna potrzeba posiadania większej liczby miniaturowych nośników danych. SanDisk zaoferował odpowiednie rozwiązanie, wprowadzając standard CompactFlash w 1994 roku.

Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1
Karty pamięci CompactFlash firmy SanDisk oraz adapter PCMCIA do podłączenia ich do komputera PC

Nowy format okazał się na tyle skuteczny, że jest z powodzeniem stosowany do dziś, a utworzone w 1995 roku Stowarzyszenie CompactFlash zrzesza obecnie ponad 200 uczestniczących firm, m.in. Canon, Eastman Kodak Company, Hewlett-Packard, Hitachi Global Systems Technologies, Lexar Media, Renesas Technology, Socket Communications i wiele innych.

Karty pamięci CompactFlash miały wymiary całkowite 42 mm na 36 mm i grubość 3,3 mm. Fizycznym interfejsem dysków był w zasadzie uproszczony PCMCIA (50 pinów zamiast 68), dzięki czemu taką kartę można było łatwo podłączyć do gniazda karty rozszerzeń PCMCIA Type II za pomocą pasywnego adaptera. Wykorzystując ponownie pasywny adapter, CompactFlash mógł wymieniać dane z urządzeniami peryferyjnymi poprzez IDE (ATA), a specjalne aktywne adaptery umożliwiały współpracę z interfejsami szeregowymi (USB, FireWire, SATA).

Pomimo stosunkowo małej pojemności (pierwszy CompactFlash mógł pomieścić zaledwie 2 MB danych), karty pamięci tego typu cieszyły się zainteresowaniem w środowisku profesjonalnym ze względu na ich kompaktowość i wydajność (jeden taki dysk zużywał około 5% energii elektrycznej w porównaniu do konwencjonalnych dysków 2,5 -calowe dyski twarde, co pozwoliło wydłużyć czas pracy urządzenia przenośnego na baterii) i wszechstronność, którą osiągnięto zarówno poprzez obsługę wielu różnych interfejsów, jak i możliwość pracy ze źródła zasilania o napięciu 3,3 lub 5 V, oraz co najważniejsze - imponująca odporność na przeciążenia powyżej 2000 g, co było barierą niemal nieosiągalną dla klasycznych dysków twardych.

Rzecz w tym, że technicznie niemożliwe jest stworzenie naprawdę odpornych na wstrząsy dysków twardych ze względu na ich cechy konstrukcyjne. Każdy obiekt podczas upadku poddawany jest uderzeniu kinetycznemu o wartości setek, a nawet tysięcy g (standardowe przyspieszenie ziemskie równe 9,8 m/s2) w czasie krótszym niż 1 milisekunda, co w przypadku klasycznych dysków twardych obarczone jest szeregiem bardzo nieprzyjemnych konsekwencji wśród których należy wyróżnić:

  • poślizg i przemieszczenie płytek magnetycznych;
  • pojawienie się luzu w łożyskach, ich przedwczesne zużycie;
  • uderzanie głowami w powierzchnię płytek magnetycznych.

Ostatnia sytuacja jest najbardziej niebezpieczna dla napędu. Gdy energia uderzenia zostanie skierowana prostopadle lub pod niewielkim kątem do płaszczyzny poziomej dysku twardego, głowice magnetyczne najpierw odchylą się od pierwotnego położenia, a następnie gwałtownie opuszczą w kierunku powierzchni naleśnika, dotykając go krawędzią, w wyniku w wyniku czego płyta magnetyczna ulega uszkodzeniu powierzchniowemu. Co więcej, ucierpiało nie tylko miejsce uderzenia (co notabene może mieć znaczny wpływ, jeśli w momencie upadku zapisywano lub odczytywano informacje), ale także obszary, w których zostały pozostawione mikroskopijne fragmenty powłoki magnetycznej. rozproszone: będąc namagnesowanymi, nie przesuwają się pod działaniem siły odśrodkowej na obwód, pozostając na powierzchni płytki magnetycznej, zakłócając normalne operacje odczytu/zapisu i przyczyniając się do dalszych uszkodzeń zarówno samego naleśnika, jak i głowicy zapisującej. Jeśli uderzenie jest wystarczająco mocne, może to nawet doprowadzić do wyrwania czujnika i całkowitej awarii napędu.

W świetle powyższego dla fotoreporterów nowe dyski były naprawdę niezastąpione: o wiele lepiej mieć przy sobie kilkanaście czy dwie bezpretensjonalne karty, niż nosić na plecach rzecz wielkości magnetowidu, czyli prawie 100 % prawdopodobieństwa awarii przy najmniejszym uderzeniu siłą. Jednak karty pamięci były nadal zbyt drogie dla konsumenta detalicznego. Dlatego Sony z sukcesem zdominowało rynek point-and-shoot dzięki kostce Mavica MVC-FD, która zapisywała zdjęcia na standardowych 3,5-calowych dyskietkach sformatowanych w systemie DOS FAT12, co zapewniało kompatybilność z niemal każdym ówczesnym komputerem PC.

Zewnętrzne urządzenia pamięci masowej: od czasów IBM 1311 do współczesności. Część 1
Amatorski aparat cyfrowy Sony Mavica MVC-FD73

I trwało to niemal do końca dekady, do czasu interwencji IBM. O tym jednak porozmawiamy w następnym artykule.

Z jakimi nietypowymi urządzeniami się spotkałeś? Być może miałeś okazję kręcić na Mavicy, na własne oczy oglądać agonię Iomegi ZIP, a może korzystałeś z Toshiby T100X? Podzielcie się swoimi historiami w komentarzach.

Źródło: www.habr.com

Dodaj komentarz