Lebensdauer eines Datenbytes

Lebensdauer eines Datenbytes

Jeder Cloud-Anbieter bietet Datenspeicherdienste an. Dies können Kalt- und Warmspeicher, Eiskalte usw. sein. Das Speichern von Informationen in der Cloud ist sehr praktisch. Doch wie wurden Daten vor 10, 20, 50 Jahren eigentlich gespeichert? Cloud4Y hat einen interessanten Artikel übersetzt, der genau darüber spricht.

Ein Byte an Daten kann auf verschiedene Arten gespeichert werden, da ständig neue, fortschrittlichere und schnellere Speichermedien auf den Markt kommen. Ein Byte ist eine Einheit zur Speicherung und Verarbeitung digitaler Informationen, die aus acht Bits besteht. Ein Bit kann entweder 0 oder 1 enthalten.

Bei Lochkarten wird das Bit als Vorhandensein/Fehlen eines Lochs in der Karte an einer bestimmten Stelle gespeichert. Wenn wir etwas weiter zu Babbages Analytical Engine zurückgehen, waren die Register, in denen Zahlen gespeichert wurden, Zahnräder. Bei magnetischen Speichergeräten wie Bändern und Platten wird ein Bit durch die Polarität eines bestimmten Bereichs des Magnetfilms dargestellt. In modernen dynamischen Direktzugriffsspeichern (DRAM) wird ein Bit häufig als zweistufige elektrische Ladung dargestellt, die in einem Gerät gespeichert ist, das elektrische Energie in einem elektrischen Feld speichert. Ein geladener oder entladener Container speichert einige Daten.

Im Juni wurde die 1956 Werner Buchholz hat das Wort erfunden Byte bezeichnet eine Gruppe von Bits, die zum Codieren eines einzelnen Zeichens verwendet werden text. Lassen Sie uns ein wenig über die Zeichenkodierung sprechen. Beginnen wir mit dem amerikanischen Standardcode für den Informationsaustausch oder ASCII. ASCII basierte auf dem englischen Alphabet, also jeder Buchstabe, jede Zahl und jedes Symbol (az, AZ, 0-9, +, -, /, ",! usw. ) wurden als 7-Bit-Ganzzahl von 32 bis 127 dargestellt. Dies war nicht gerade „freundlich“ für andere Sprachen. Um andere Sprachen zu unterstützen, erweiterte Unicode ASCII. In Unicode wird jedes Zeichen beispielsweise als Codepunkt oder Symbol dargestellt , Kleinbuchstabe j ist U+006A, wobei U für Unicode und dann für eine Hexadezimalzahl steht.

UTF-8 ist ein Standard zur Darstellung von Zeichen als acht Bits, sodass jeder Codepunkt im Bereich 0–127 in einem einzelnen Byte gespeichert werden kann. Wenn wir uns an ASCII erinnern, ist dies für englische Zeichen ganz normal, aber Zeichen in anderen Sprachen werden oft in zwei oder mehr Bytes ausgedrückt. UTF-16 ist ein Standard zur Darstellung von Zeichen als 16 Bit, und UTF-32 ist ein Standard zur Darstellung von Zeichen als 32 Bit. In ASCII ist jedes Zeichen ein Byte, aber in Unicode, was oft nicht ganz stimmt, kann ein Zeichen 1, 2, 3 oder mehr Bytes belegen. In dem Artikel werden Bitgruppierungen unterschiedlicher Größe verwendet. Die Anzahl der Bits in einem Byte variiert je nach Design des Mediums.

In diesem Artikel reisen wir durch verschiedene Speichermedien in die Vergangenheit, um uns mit der Geschichte der Datenspeicherung zu befassen. Auf keinen Fall werden wir anfangen, jedes einzelne Speichermedium, das jemals erfunden wurde, eingehend zu untersuchen. Dies ist ein unterhaltsamer Informationsartikel, der in keiner Weise den Anspruch erhebt, von enzyklopädischer Bedeutung zu sein.

Lasst uns beginnen. Nehmen wir an, wir müssen ein Datenbyte speichern: den Buchstaben j, entweder als codiertes Byte 6a oder als Binärzahl 01001010. Auf unserer Reise durch die Zeit wird das Datenbyte in mehreren Speichertechnologien verwendet, die beschrieben werden.

1951

Lebensdauer eines Datenbytes

Unsere Geschichte beginnt im Jahr 1951 mit dem UNIVAC UNISERVO-Bandlaufwerk für den UNIVAC 1-Computer. Es war das erste Bandlaufwerk, das für einen kommerziellen Computer entwickelt wurde. Das Band bestand aus einem dünnen Streifen vernickelter Bronze, 12,65 mm breit (Vicalloy genannt) und fast 366 Meter lang. Unsere Datenbytes könnten mit 7 Zeichen pro Sekunde auf einem Band gespeichert werden, das sich mit 200 Metern pro Sekunde bewegt. Zu diesem Zeitpunkt in der Geschichte konnte man die Geschwindigkeit eines Speicheralgorithmus anhand der Entfernung messen, die das Band zurücklegte.

1952

Lebensdauer eines Datenbytes

Ein Jahr später, bis zum 21. Mai 1952, als IBM die Veröffentlichung seines ersten Magnetbandgeräts, der IBM 726, ankündigte. Unser Datenbyte konnte nun vom UNISERVO-Metallband auf das IBM-Magnetband übertragen werden. Dieses neue Zuhause erwies sich für unser sehr kleines Datenbyte als sehr gemütlich, da das Band bis zu 2 Millionen Ziffern speichern kann. Dieses 7-Spur-Magnetband bewegte sich mit 1,9 Metern pro Sekunde und einer Baudrate von 12 zahlen или 7500 Zeichen (damals Kopiergruppen genannt) pro Sekunde. Als Referenz: Der durchschnittliche Artikel über Habré hat etwa 10 Zeichen.

Das IBM 726-Band verfügte über sieben Spuren, von denen sechs zur Speicherung von Informationen und eine zur Paritätskontrolle dienten. Eine Spule konnte bis zu 400 Meter Band mit einer Breite von 1,25 cm aufnehmen. Die Datenübertragungsgeschwindigkeit erreichte theoretisch 12,5 Tausend Zeichen pro Sekunde; Die Aufzeichnungsdichte beträgt 40 Bit pro Zentimeter. Dieses System nutzte eine „Vakuumkanal“-Methode, bei der eine Bandschleife zwischen zwei Punkten zirkulierte. Dadurch konnte das Band im Bruchteil einer Sekunde gestartet und gestoppt werden. Dies wurde erreicht, indem zwischen den Bandspulen und den Lese-/Schreibköpfen lange Vakuumsäulen angebracht wurden, um den plötzlichen Spannungsanstieg im Band aufzufangen, ohne den das Band normalerweise reißen würde. Ein abnehmbarer Kunststoffring auf der Rückseite der Bandspule sorgte für Schreibschutz. Eine Bandspule kann etwa 1,1 speichern Megabyte.

Denken Sie an VHS-Kassetten. Was mussten Sie tun, um den Film noch einmal anzusehen? Spulen Sie das Band zurück! Wie oft haben Sie eine Kassette für Ihren Player auf einem Bleistift gedreht, um nicht die Batterien zu verschwenden und eine gerissene oder verklemmte Kassette zu bekommen? Das Gleiche gilt für Bänder, die für Computer verwendet werden. Programme konnten nicht einfach auf dem Band herumspringen oder wahllos auf Daten zugreifen, sie konnten Daten streng nacheinander lesen und schreiben.

1956

Lebensdauer eines Datenbytes

Ein paar Jahre später begann im Jahr 1956 die Ära der Magnetplattenspeicherung mit der Fertigstellung des RAMAC 305-Computersystems durch IBM, an das Zellerbach Paper lieferte Frisco. Dieser Computer war der erste, der eine Festplatte mit beweglichem Kopf verwendete. Das RAMAC-Plattenlaufwerk bestand aus fünfzig magnetisierten Metallplatten mit einem Durchmesser von 60,96 cm, die etwa fünf Millionen Zeichen Daten, 7 Bits pro Zeichen, speichern konnten und sich mit 1200 Umdrehungen pro Minute drehten. Die Speicherkapazität betrug etwa 3,75 Megabyte.

RAMAC ermöglichte im Gegensatz zu Magnetbändern oder Lochkarten den Echtzeitzugriff auf große Datenmengen. IBM gab bekannt, dass der RAMAC in der Lage sei, umgerechnet 64 Daten zu speichern Lochkarten. Zuvor führte RAMRAC das Konzept der kontinuierlichen Verarbeitung von Transaktionen bei ihrem Auftreten ein, sodass Daten sofort abgerufen werden konnten, während sie noch aktuell waren. Auf unsere Daten in RAMAC konnte nun mit einer Geschwindigkeit von 100 zugegriffen werden Bits pro Sekunde. Bisher mussten wir bei der Verwendung von Bändern sequenzielle Daten schreiben und lesen und konnten nicht versehentlich zu verschiedenen Teilen des Bandes springen. Der wahlfreie Zugriff auf Daten in Echtzeit war damals wirklich revolutionär.

1963

Lebensdauer eines Datenbytes

Lassen Sie uns ins Jahr 1963 vorspulen, als DECtape eingeführt wurde. Der Name stammt von der Digital Equipment Corporation, bekannt als DEC. DECtape war kostengünstig und zuverlässig und wurde daher in vielen Generationen von DEC-Computern verwendet. Es handelte sich um ein 19-mm-Band, laminiert und zwischen zwei Schichten Mylar auf einer 10,16 cm (XNUMX Zoll) großen Spule.

Im Gegensatz zu seinen schweren, sperrigen Vorgängern konnte DECtape in der Hand getragen werden. Dies machte es zu einer hervorragenden Option für Personalcomputer. Im Gegensatz zu seinen 7-Spur-Gegenstücken verfügte DECtape über 6 Datenspuren, 2 Cue-Spuren und 2 für die Uhr. Die Daten wurden mit 350 Bit pro Zoll (138 Bit pro cm) aufgezeichnet. Unser Datenbyte, das 8 Bit groß ist, aber auf 12 erweitert werden kann, könnte mit 8325 12-Bit-Wörtern pro Sekunde und einer Bandgeschwindigkeit von 93 (±12) Zoll pro Sekunde auf DECtape übertragen werden zweitens. Das sind 8 % mehr Ziffern pro Sekunde als das UNISERVO-Metallband im Jahr 1952.
 

1967

Lebensdauer eines Datenbytes

Vier Jahre später, im Jahr 1967, begann ein kleines IBM-Team mit der Arbeit an dem IBM-Diskettenlaufwerk mit dem Codenamen Elritze. Anschließend wurde das Team damit beauftragt, eine zuverlässige und kostengünstige Möglichkeit zum Laden von Mikrocodes zu entwickeln Großrechner IBM System/370. Anschließend wurde das Projekt umgestaltet und umgestaltet, um Mikrocode in einen Controller für die IBM 3330 Direct Access Storage Facility mit dem Codenamen Merlin zu laden.

Unser Byte konnte nun auf schreibgeschützten 8-Zoll-Disketten aus magnetisch beschichtetem Mylar gespeichert werden, die heute als Disketten bekannt sind. Zum Zeitpunkt der Veröffentlichung hieß das Produkt IBM 23FD Floppy Disk Drive System. Die Festplatten könnten 80 Kilobyte Daten speichern. Im Gegensatz zu Festplatten könnte ein Benutzer eine Diskette in einer Schutzhülle problemlos von einem Laufwerk auf ein anderes verschieben. Später, im Jahr 1973, brachte IBM die Lese-/Schreibdiskette auf den Markt, die dann zu einer industriellen Diskette wurde Standard.
 

1969

Lebensdauer eines Datenbytes
 1969 wurde der Apollo Guidance Computer (AGC) mit Seilspeicher an Bord der Raumsonde Apollo 11 gestartet, der amerikanische Astronauten zum Mond und zurück beförderte. Dieser Seilspeicher wurde von Hand gefertigt und konnte 72 Kilobyte Daten aufnehmen. Die Herstellung von Seilspeichern war arbeitsintensiv, langsam und erforderte ähnliche Fähigkeiten wie das Weben; es könnte dauern Monate. Aber es war das richtige Werkzeug für jene Zeiten, in denen es darauf ankam, das Maximum auf engstem Raum unterzubringen. Wenn der Draht durch einen der kreisförmigen Stränge lief, stellte er eine 1 dar. Der Draht, der um den Strang herumlief, stellte eine 0 dar. Für unser Datenbyte musste eine Person mehrere Minuten lang das Seil weben.

1977

Lebensdauer eines Datenbytes

1977 kam mit dem Commodore PET der erste (erfolgreiche) Personal Computer auf den Markt. Das PET verwendete eine Commodore 1530 Datasette, was Daten plus Kassette bedeutet. PET wandelte die Daten in analoge Audiosignale um, die dann gespeichert wurden Kassetten. Dadurch konnten wir eine kostengünstige und zuverlässige Speicherlösung schaffen, wenn auch sehr langsam. Unser kleines Datenbyte könnte mit einer Geschwindigkeit von etwa 60-70 Bytes pro übertragen werden zweitens. Kassetten könnten etwa 100 Kilobyte pro 30-Minuten-Seite aufnehmen, bei zwei Seiten pro Band. Beispielsweise könnte eine Seite einer Kassette etwa zwei 55-KB-Bilder enthalten. Datasetten wurden auch im Commodore VIC-20 und Commodore 64 verwendet.

1978

Lebensdauer eines Datenbytes

Ein Jahr später, 1978, führten MCA und Philips LaserDisc unter dem Namen „Discovision“ ein. Der weiße Hai war der erste Film, der in den USA auf LaserDisc verkauft wurde. Die Audio- und Videoqualität war viel besser als bei der Konkurrenz, aber die Laserdisc war für die meisten Verbraucher zu teuer. Im Gegensatz zu den VHS-Kassetten, auf denen Fernsehprogramme aufgezeichnet wurden, war die LaserDisc nicht bespielbar. Laserdiscs arbeiteten mit analogem Video, analogem FM-Stereo-Audio und Pulscode Modulationoder PCM, digitales Audio. Die Scheiben hatten einen Durchmesser von 12 Zoll (30,47 cm) und bestanden aus zwei einseitigen, mit Kunststoff beschichteten Aluminiumscheiben. Heute gilt LaserDisc als Grundlage für CDs und DVDs.

1979

Lebensdauer eines Datenbytes

Ein Jahr später, 1979, gründeten Alan Shugart und Finis Conner Seagate Technology mit der Idee, die Festplatte auf die damals übliche Größe einer 5 ¼-Zoll-Diskette zu skalieren. Ihr erstes Produkt im Jahr 1980 war die Festplatte Seagate ST506, die erste Festplatte für Kompaktcomputer. Die Diskette fasste fünf Megabyte an Daten, was damals fünfmal größer war als eine Standarddiskette. Den Gründern gelang es, ihr Ziel, die Diskettengröße auf die Größe einer 5¼-Zoll-Diskette zu reduzieren, zu erreichen. Der neue Datenspeicher war eine starre Metallplatte, die auf beiden Seiten mit einer dünnen Schicht aus magnetischem Datenspeichermaterial beschichtet war. Unsere Datenbytes könnten mit einer Geschwindigkeit von 625 Kilobyte pro Sekunde auf die Festplatte übertragen werden zweitens. Es ist ungefähr So ein GIF.

1981

Lebensdauer eines Datenbytes

Ein paar Jahre später, 1981, als Sony die ersten 3,5-Zoll-Disketten vorstellte. Hewlett-Packard war 1982 mit seinem HP-150 der erste Anwender dieser Technologie. Dies machte die 3,5-Zoll-Disketten berühmt und verbreitete sie auf der ganzen Welt. Industrie. Die Disketten waren einseitig und hatten eine formatierte Kapazität von 161.2 Kilobyte und eine unformatierte Kapazität von 218.8 Kilobyte. 1982 wurde eine doppelseitige Version herausgebracht, und das aus 23 Medienunternehmen bestehende Konsortium Microfloppy Industry Committee (MIC) basierte die 3,5-Zoll-Diskettenspezifikation auf dem ursprünglichen Design von Sony und verankerte das Format in der Geschichte, wie wir es heute kennen. wir wissen. Jetzt können unsere Datenbytes auf einer frühen Version eines der gängigsten Speichermedien gespeichert werden: der 3,5-Zoll-Diskette. Später ein Paar 3,5-Zoll-Disketten mit Oregon Trail wurde zum wichtigsten Teil meiner Kindheit.

1984

Lebensdauer eines Datenbytes

Kurz darauf, im Jahr 1984, wurde die Veröffentlichung des Compact Disc Read-Only Memory (CD-ROM) angekündigt. Dabei handelte es sich um 550-Megabyte-CD-ROMs von Sony und Philips. Das Format entstand aus CDs mit digitalem Audio oder CD-DA, die zur Verbreitung von Musik verwendet wurden. CD-DA wurde 1982 von Sony und Philips entwickelt und hatte eine Kapazität von 74 Minuten. Der Legende nach bestand einer der vier Personen darauf, dass dies möglich sei, als Sony und Philips über den CD-DA-Standard verhandelten enthalten die gesamte Neunte Symphonie. Das erste auf CD veröffentlichte Produkt war Groliers Electronic Encyclopedia aus dem Jahr 1985. Die Enzyklopädie enthielt neun Millionen Wörter, die nur 12 % des verfügbaren Speicherplatzes, also 553, einnahmen Mebibyte. Wir hätten mehr als genug Platz für eine Enzyklopädie und ein Byte Daten. Bald darauf, im Jahr 1985, arbeiteten Computerunternehmen zusammen, um einen Standard für Festplatten zu schaffen, damit jeder Computer sie lesen konnte.

1984

Ebenfalls im Jahr 1984 entwickelte Fujio Masuoka einen neuen Typ eines Floating-Gate-Speichers namens Flash-Speicher, der viele Male gelöscht und neu beschrieben werden konnte.

Nehmen wir uns einen Moment Zeit, um einen Flash-Speicher mit einem Floating-Gate-Transistor zu betrachten. Transistoren sind elektrische Gatter, die einzeln ein- und ausgeschaltet werden können. Da sich jeder Transistor in zwei verschiedenen Zuständen (ein und aus) befinden kann, kann er zwei verschiedene Zahlen speichern: 0 und 1. Ein schwebendes Gate bezieht sich auf ein zweites Gate, das dem mittleren Transistor hinzugefügt wird. Dieses zweite Gate ist mit einer dünnen Oxidschicht isoliert. Diese Transistoren verwenden eine kleine Spannung, die an das Gate des Transistors angelegt wird, um anzuzeigen, ob er ein- oder ausgeschaltet ist, was wiederum 0 oder 1 bedeutet.
 
Wenn bei Floating-Gates die entsprechende Spannung durch die Oxidschicht angelegt wird, fließen Elektronen durch diese hindurch und bleiben an den Gates hängen. Selbst wenn der Strom abgeschaltet wird, bleiben die Elektronen daher auf ihnen. Wenn sich keine Elektronen auf den Floating-Gates befinden, stellen sie eine 1 dar, und wenn Elektronen stecken bleiben, stellen sie eine 0 dar. Wenn man diesen Vorgang umkehrt und eine geeignete Spannung durch die Oxidschicht in die entgegengesetzte Richtung anlegt, fließen Elektronen durch die Floating-Gates und den Transistor wieder in seinen ursprünglichen Zustand versetzen. Daher werden die Zellen programmierbar gemacht und nicht flüchtig. Unser Byte kann als 01001010 in den Transistor programmiert werden, mit Elektronen, wobei die Elektronen in schwebenden Gates stecken, um Nullen darzustellen.

Das Design von Masuoka war etwas günstiger, aber weniger flexibel als das elektrisch löschbare PROM (EEPROM), da es mehrere Gruppen von Zellen erforderte, die zusammen gelöscht werden mussten, was aber auch für seine Geschwindigkeit verantwortlich war.

Zu dieser Zeit arbeitete Masuoka für Toshiba. Er ging schließlich, um an der Tohoku-Universität zu arbeiten, weil er unglücklich darüber war, dass das Unternehmen ihn für seine Arbeit nicht entlohnte. Masuoka verklagte Toshiba und forderte Schadensersatz. Im Jahr 2006 erhielt er 87 Millionen Yuan, was 758 US-Dollar entspricht. Dies scheint immer noch unbedeutend zu sein, wenn man bedenkt, wie einflussreich Flash-Speicher in der Branche geworden sind.

Während wir über Flash-Speicher sprechen, ist es auch erwähnenswert, was der Unterschied zwischen NOR- und NAND-Flash-Speicher ist. Wie wir bereits von Masuoka wissen, speichert Flash Informationen in Speicherzellen, die aus Floating-Gate-Transistoren bestehen. Die Namen der Technologien stehen in direktem Zusammenhang mit der Organisation von Speicherzellen.

Beim NOR-Flash werden einzelne Speicherzellen parallel geschaltet, um einen wahlfreien Zugriff zu ermöglichen. Diese Architektur reduziert die Lesezeit, die für den Direktzugriff auf Mikroprozessorbefehle erforderlich ist. NOR-Flash-Speicher eignen sich ideal für Anwendungen mit geringerer Dichte, die hauptsächlich schreibgeschützt sind. Aus diesem Grund laden die meisten CPUs ihre Firmware, normalerweise aus dem NOR-Flash-Speicher. Masuoka und seine Kollegen führten 1984 die Erfindung des NOR-Flashs und des NAND-Flashs ein 1987.

NAND-Flash-Entwickler verzichteten auf die Direktzugriffsfunktion, um eine kleinere Speicherzellengröße zu erreichen. Dies führt zu einer kleineren Chipgröße und geringeren Kosten pro Bit. Die NAND-Flash-Speicherarchitektur besteht aus acht in Reihe geschalteten Speichertransistoren. Dadurch werden eine hohe Speicherdichte, eine kleinere Speicherzellengröße und ein schnelleres Schreiben und Löschen von Daten erreicht, da Datenblöcke gleichzeitig programmiert werden können. Dies wird dadurch erreicht, dass Daten neu geschrieben werden müssen, wenn sie nicht sequentiell geschrieben werden und die Daten bereits vorhanden sind Block.

1991

Gehen wir weiter ins Jahr 1991, als ein Prototyp eines Solid-State-Laufwerks (SSD) von SanDisk erstellt wurde, damals bekannt als SunDisk. Das Design kombinierte ein Flash-Speicher-Array, nichtflüchtige Speicherchips und einen intelligenten Controller, um defekte Zellen automatisch zu erkennen und zu korrigieren. Die Festplattenkapazität betrug 20 Megabyte bei einem 2,5-Zoll-Formfaktor und die Kosten wurden auf etwa 1000 US-Dollar geschätzt. Diese Diskette wurde von IBM in einem Computer verwendet ThinkPad.

1994

Lebensdauer eines Datenbytes

Eines meiner persönlichen Lieblingsspeichermedien seit meiner Kindheit waren Zip-Disks. 1994 brachte Iomega die Zip Disk auf den Markt, eine 100-Megabyte-Kassette im 3,5-Zoll-Formfaktor, die etwa etwas dicker als ein Standard-3,5-Zoll-Laufwerk ist. Spätere Versionen der Laufwerke konnten bis zu 2 Gigabyte speichern. Der Vorteil dieser Disketten besteht darin, dass sie die Größe einer Diskette hatten, aber eine größere Datenmenge speichern konnten. Unsere Datenbytes könnten mit 1,4 Megabyte pro Sekunde auf eine Zip-Diskette geschrieben werden. Zum Vergleich: Damals wurden 1,44 Megabyte einer 3,5-Zoll-Diskette mit einer Geschwindigkeit von etwa 16 Kilobyte pro Sekunde beschrieben. Auf einer Zip-Diskette lesen/schreiben die Köpfe Daten berührungslos, als würden sie über der Oberfläche fliegen, was der Funktionsweise einer Festplatte ähnelt, sich jedoch vom Funktionsprinzip anderer Disketten unterscheidet. Zip-Disketten wurden aufgrund von Zuverlässigkeits- und Verfügbarkeitsproblemen bald obsolet.

1994

Lebensdauer eines Datenbytes

Im selben Jahr führte SanDisk CompactFlash ein, das in digitalen Videokameras weit verbreitet war. Wie bei CDs basieren die CompactFlash-Geschwindigkeiten auf „x“-Bewertungen wie 8x, 20x, 133x usw. Die maximale Datenübertragungsrate wird basierend auf der Bitrate der Original-Audio-CD berechnet, 150 Kilobyte pro Sekunde. Die Übertragungsrate sieht wie folgt aus: R = Kx150 kB/s, wobei R die Übertragungsrate und K die Nenngeschwindigkeit ist. Bei einem 133x CompactFlash wird unser Datenbyte also mit 133x150 kB/s oder etwa 19 kB/s oder 950 MB/s geschrieben. Die CompactFlash Association wurde 19,95 mit dem Ziel gegründet, einen Industriestandard für Flash-Speicherkarten zu schaffen.

1997

Einige Jahre später, 1997, wurde die Compact Disc Rewritable (CD-RW) veröffentlicht. Diese optische Platte wurde zum Speichern von Daten sowie zum Kopieren und Übertragen von Dateien auf verschiedene Geräte verwendet. CDs können etwa 1000 Mal überschrieben werden, was damals kein limitierender Faktor war, da Benutzer Daten selten überschrieben.

CD-RWs basieren auf einer Technologie, die das Reflexionsvermögen einer Oberfläche verändert. Im Fall von CD-RW bewirken Phasenverschiebungen in einer speziellen Beschichtung aus Silber, Tellur und Indium die Fähigkeit, den Lesestrahl zu reflektieren oder nicht zu reflektieren, was 0 oder 1 bedeutet. Wenn sich die Verbindung im kristallinen Zustand befindet, ist sie es durchscheinend, was bedeutet 1. Wenn die Verbindung in einen amorphen Zustand schmilzt, wird sie undurchsichtig und nicht reflektierend, was Mittel 0. Wir könnten unser Datenbyte also als 01001010 schreiben.

DVDs übernahmen schließlich den Großteil des Marktanteils von CD-RWs.

1999

Gehen wir weiter zum Jahr 1999, als IBM die damals kleinsten Festplatten der Welt vorstellte: die IBM 170-MB- und 340-MB-Mikrolaufwerke. Dabei handelte es sich um kleine 2,54-cm-Festplatten, die in CompactFlash-Typ-II-Steckplätze passten. Es war geplant, ein Gerät zu entwickeln, das wie CompactFlash verwendet werden kann, jedoch über eine größere Speicherkapazität verfügt. Sie wurden jedoch bald durch USB-Sticks und dann, sobald sie verfügbar waren, durch größere CompactFlash-Karten ersetzt. Mikrolaufwerke waren wie andere Festplatten mechanisch und enthielten kleine rotierende Scheiben.

2000

Ein Jahr später, im Jahr 2000, wurden USB-Sticks eingeführt. Die Laufwerke bestanden aus Flash-Speicher in einem kleinen Formfaktor mit USB-Schnittstelle. Abhängig von der Version der verwendeten USB-Schnittstelle kann die Geschwindigkeit variieren. USB 1.1 ist auf 1,5 Megabit pro Sekunde begrenzt, während USB 2.0 35 Megabit pro Sekunde verarbeiten kann zweitens, und USB 3.0 ist 625 Megabit pro Sekunde. Die ersten USB-3.1-Typ-C-Laufwerke wurden im März 2015 angekündigt und hatten Lese-/Schreibgeschwindigkeiten von 530 Megabit pro Sekunde. Im Gegensatz zu Disketten und optischen Laufwerken sind USB-Geräte schwieriger zu entkratzen, bieten aber dennoch die gleichen Möglichkeiten zum Speichern von Daten sowie zum Übertragen und Sichern von Dateien. Disketten- und CD-Laufwerke wurden schnell durch USB-Anschlüsse ersetzt.

2005

Lebensdauer eines Datenbytes

Im Jahr 2005 begannen Hersteller von Festplattenlaufwerken (HDDs) damit, Produkte mit Perpendicular Magnetic Recording (PMR) auszuliefern. Interessanterweise geschah dies zur gleichen Zeit, als der iPod Nano die Verwendung von Flash-Speichern anstelle von 1-Zoll-Festplatten im iPod Mini ankündigte.

Eine typische Festplatte enthält eine oder mehrere Festplatten, die mit einem magnetisch empfindlichen Film aus winzigen Magnetkörnern beschichtet sind. Daten werden aufgezeichnet, wenn der magnetische Aufzeichnungskopf knapp über der rotierenden Scheibe fliegt. Dies ist einem herkömmlichen Schallplattenspieler sehr ähnlich, mit dem einzigen Unterschied, dass bei einem Grammophon die Nadel physischen Kontakt mit der Schallplatte hat. Während sich die Scheiben drehen, erzeugt die mit ihnen in Kontakt stehende Luft eine sanfte Brise. So wie Luft an einem Flugzeugflügel Auftrieb erzeugt, erzeugt Luft Auftrieb am Tragflächenkopf Plattenköpfe. Der Kopf ändert schnell die Magnetisierung eines magnetischen Bereichs der Körner, sodass sein Magnetpol nach oben oder unten zeigt und 1 oder 0 anzeigt.
 
Der Vorgänger der PMR war die longitudinale magnetische Aufzeichnung (LMR). Die Aufzeichnungsdichte von PMR kann mehr als dreimal so hoch sein wie die von LMR. Der Hauptunterschied zwischen PMR und LMR besteht darin, dass die Kornstruktur und magnetische Ausrichtung der gespeicherten Daten von PMR-Medien säulenförmig und nicht longitudinal ist. PMR weist aufgrund der besseren Korntrennung und Gleichmäßigkeit eine bessere thermische Stabilität und ein verbessertes Signal-Rausch-Verhältnis (SNR) auf. Dank stärkerer Kopffelder und besserer magnetischer Medienausrichtung zeichnet es sich außerdem durch eine verbesserte Aufnahmefähigkeit aus. Wie bei LMR basieren die grundlegenden Einschränkungen von PMR auf der thermischen Stabilität der vom Magneten geschriebenen Datenbits und der Notwendigkeit eines ausreichenden SNR zum Lesen der geschriebenen Informationen.

2007

Im Jahr 2007 wurde die erste 1-TB-Festplatte von Hitachi Global Storage Technologies angekündigt. Der Hitachi Deskstar 7K1000 nutzte fünf 3,5-Zoll-200-GB-Platten und drehte sich um 7200 U/min Dies ist eine deutliche Verbesserung gegenüber der weltweit ersten Festplatte, der IBM RAMAC 350, die eine Kapazität von etwa 3,75 Megabyte hatte. Oh, wie weit sind wir in 51 Jahren gekommen! Aber warten Sie, da ist noch etwas mehr.

2009

Im Jahr 2009 begannen die technischen Arbeiten zur Schaffung eines nichtflüchtigen Expressspeichers bzw NVMe. Nichtflüchtiger Speicher (NVM) ist eine Art von Speicher, der Daten dauerhaft speichern kann, im Gegensatz zum flüchtigen Speicher, der zum Speichern von Daten eine konstante Stromversorgung benötigt. NVMe erfüllt den Bedarf an einer skalierbaren Host-Controller-Schnittstelle für PCIe-fähige halbleiterbasierte Peripheriekomponenten, daher der Name NVMe. Zur Entwicklung des Projekts waren mehr als 90 Unternehmen in die Arbeitsgruppe eingebunden. Dies alles basierte auf der Arbeit zur Definition der Non-Volatile Memory Host Controller Interface Specification (NVMHCIS). Die besten NVMe-Laufwerke von heute können etwa 3500 Megabyte pro Sekunde lesen und 3300 Megabyte pro Sekunde schreiben. Das Schreiben des J-Datenbytes, mit dem wir begonnen haben, ist sehr schnell im Vergleich zu ein paar Minuten Handweberei-Seilspeicher für den Apollo Guidance Computer.

Gegenwart und Zukunft

Speicher der Speicherklasse

Nachdem wir nun eine Zeitreise in die Vergangenheit gemacht haben (ha!), werfen wir einen Blick auf den aktuellen Stand des Speicherklassenspeichers. SCM ist wie NVM robust, bietet aber auch eine Leistung, die dem Hauptspeicher überlegen oder mit diesem vergleichbar ist Byte-Adressierbarkeit. Das Ziel von SCM besteht darin, einige der heutigen Cache-Probleme zu lösen, beispielsweise niedrige SRAM-Dichten (Static Random Access Memory). Mit Dynamic Random Access Memory (DRAM) können wir eine höhere Dichte erreichen, allerdings geht dies auf Kosten eines langsameren Zugriffs. DRAM leidet außerdem unter der Notwendigkeit einer konstanten Stromversorgung, um den Speicher aufzufrischen. Lassen Sie uns das ein wenig verstehen. Strom wird benötigt, weil die elektrische Ladung an den Kondensatoren nach und nach abfließt und ohne Eingriff die Daten auf dem Chip schnell verloren gehen. Um einen solchen Verlust zu verhindern, benötigt DRAM eine externe Speicherauffrischungsschaltung, die die Daten in den Kondensatoren regelmäßig neu schreibt und sie auf ihre ursprüngliche Ladung zurückführt.

Phasenwechselspeicher (PCM)

Zuvor haben wir uns angeschaut, wie sich die Phase bei CD-RW ändert. PCM ist ähnlich. Das Phasenwechselmaterial ist normalerweise Ge-Sb-Te, auch bekannt als GST, das in zwei verschiedenen Zuständen vorliegen kann: amorph und kristallin. Der amorphe Zustand hat einen höheren Widerstand, der mit 0 bezeichnet wird, als der kristalline Zustand, der mit 1 bezeichnet wird. Durch Zuweisen von Datenwerten zu Zwischenwiderständen kann PCM zum Speichern mehrerer Zustände als verwendet werden MLC.

Spin-Transfer-Drehmoment-Direktzugriffsspeicher (STT-RAM)

STT-RAM besteht aus zwei ferromagnetischen, permanentmagnetischen Schichten, die durch ein Dielektrikum getrennt sind, einen Isolator, der elektrische Kraft übertragen kann, ohne zu leiten. Es speichert Datenbits basierend auf Unterschieden in den magnetischen Richtungen. Eine magnetische Schicht, Referenzschicht genannt, hat eine feste magnetische Richtung, während die andere magnetische Schicht, freie Schicht genannt, eine magnetische Richtung hat, die durch den fließenden Strom gesteuert wird. Für 1 ist die Magnetisierungsrichtung der beiden Schichten ausgerichtet. Für 0 haben beide Schichten entgegengesetzte magnetische Richtungen.

Resistiver Direktzugriffsspeicher (ReRAM)
Eine ReRAM-Zelle besteht aus zwei Metallelektroden, die durch eine Metalloxidschicht getrennt sind. Ein bisschen wie Masuokas Flash-Speicher-Design, bei dem Elektronen die Oxidschicht durchdringen und im Floating Gate stecken bleiben oder umgekehrt. Bei ReRAM wird der Zellzustand jedoch anhand der Konzentration an freiem Sauerstoff in der Metalloxidschicht bestimmt.

Obwohl diese Technologien vielversprechend sind, weisen sie dennoch Nachteile auf. PCM und STT-RAM haben eine hohe Schreiblatenz. PCM-Latenzen sind zehnmal höher als bei DRAM, während STT-RAM-Latenzen zehnmal höher sind als bei SRAM. PCM und ReRAM haben eine Begrenzung, wie lange ein Schreibvorgang dauern kann, bevor ein schwerwiegender Fehler auftritt, was bedeutet, dass das Speicherelement hängen bleibt einen bestimmten Wert.

Im August 2015 kündigte Intel die Veröffentlichung von Optane an, seinem 3DXPoint-basierten Produkt. Optane gibt an, die 1000-fache Leistung von NAND-SSDs zu einem Preis zu erzielen, der vier- bis fünfmal höher ist als der von Flash-Speicher. Optane ist der Beweis dafür, dass SCM mehr als nur eine experimentelle Technologie ist. Es wird interessant sein, die Entwicklung dieser Technologien zu beobachten.

Festplatten (HDD)

Helium-Festplatte (HHDD)

Eine Helium-Disk ist ein Festplattenlaufwerk (HDD) mit hoher Kapazität, das während des Herstellungsprozesses mit Helium gefüllt und hermetisch verschlossen wird. Wie wir bereits sagten, ähnelt es wie andere Festplatten einem Plattenspieler mit einer magnetisch beschichteten rotierenden Platte. Bei typischen Festplatten befindet sich lediglich Luft im Hohlraum, diese Luft verursacht jedoch einen gewissen Widerstand, wenn sich die Platten drehen.

Heliumballons schweben, weil Helium leichter als Luft ist. Tatsächlich hat Helium ein Siebtel der Dichte von Luft, wodurch die Bremskraft beim Drehen der Platten verringert wird, was zu einer Verringerung der Energiemenge führt, die zum Drehen der Scheiben erforderlich ist. Dieses Merkmal ist jedoch zweitrangig, das Hauptunterscheidungsmerkmal von Helium bestand darin, dass man damit 1 Wafer in den gleichen Formfaktor packen kann, der normalerweise nur 7 aufnehmen würde. Wenn wir uns an die Analogie unseres Flugzeugflügels erinnern, dann ist dies ein perfektes Analogon . Da Helium den Luftwiderstand verringert, werden Turbulenzen eliminiert.

Wir wissen auch, dass Heliumballons nach einigen Tagen zu sinken beginnen, weil das Helium aus ihnen austritt. Das Gleiche gilt für Speichergeräte. Es dauerte Jahre, bis es den Herstellern gelang, einen Behälter zu entwickeln, der während der gesamten Lebensdauer des Laufwerks verhindert, dass Helium aus dem Formfaktor entweicht. Backblaze führte Experimente durch und stellte fest, dass Helium-Festplatten eine jährliche Fehlerrate von 1,03 % aufwiesen, verglichen mit 1,06 % bei Standardlaufwerken. Natürlich ist dieser Unterschied so gering, dass man daraus eine ernsthafte Schlussfolgerung ziehen kann ziemlich schwer.

Der mit Helium gefüllte Formfaktor kann eine Festplatte enthalten, die mit PMR, wie wir oben besprochen haben, oder Mikrowellen-Magnetaufzeichnung (MAMR) oder wärmeunterstützter Magnetaufzeichnung (HAMR) gekapselt ist. Jede magnetische Speichertechnologie kann mit Helium anstelle von Luft kombiniert werden. Im Jahr 2014 kombinierte HGST zwei Spitzentechnologien in seiner 10-TB-Helium-Festplatte, die hostgesteuerte Shingled Magnetic Recording oder SMR (Shingled Magnetic Recording) nutzte. Lassen Sie uns ein wenig über SMR sprechen und dann MAMR und HAMR betrachten.

Tile-Magnetaufzeichnungstechnologie

Zuvor haben wir uns mit der Perpendicular Magnetic Recording (PMR) befasst, dem Vorgänger von SMR. Im Gegensatz zu PMR zeichnet SMR neue Spuren auf, die einen Teil der zuvor aufgezeichneten Magnetspur überlappen. Dadurch wird die bisherige Spur schmaler, was eine höhere Spurdichte ermöglicht. Der Name der Technologie rührt von der Tatsache her, dass Überlappungsschienen den Ziegeldachschienen sehr ähnlich sind.

SMR führt zu einem wesentlich komplexeren Schreibvorgang, da das Schreiben auf eine Spur die benachbarte Spur überschreibt. Dies ist nicht der Fall, wenn das Festplattensubstrat leer ist und die Daten sequentiell sind. Sobald Sie jedoch auf einer Reihe von Spuren aufnehmen, die bereits Daten enthalten, werden die vorhandenen angrenzenden Daten gelöscht. Wenn eine benachbarte Spur Daten enthält, müssen diese neu geschrieben werden. Dies ist dem NAND-Flash, über den wir zuvor gesprochen haben, ziemlich ähnlich.

SMR-Geräte verbergen diese Komplexität, indem sie die Firmware verwalten, was zu einer Schnittstelle führt, die mit jeder anderen Festplatte vergleichbar ist. Andererseits erlauben vom Host verwaltete SMR-Geräte ohne spezielle Anpassung von Anwendungen und Betriebssystemen die Verwendung dieser Laufwerke nicht. Der Host muss streng nacheinander auf Geräte schreiben. Gleichzeitig ist die Leistung der Geräte zu 100 % vorhersehbar. Seagate begann 2013 mit der Auslieferung von SMR-Laufwerken und behauptete eine um 25 % höhere Dichte überschreitet PMR-Dichte.

Magnetische Mikrowellenaufzeichnung (MAMR)

Bei der mikrowellenunterstützten magnetischen Aufzeichnung (MAMR) handelt es sich um eine magnetische Speichertechnologie, die eine ähnliche Energie wie HAMR verwendet (wird als Nächstes besprochen). Ein wichtiger Bestandteil von MAMR ist der Spin Torque Oscillator (STO). Der STO selbst befindet sich in unmittelbarer Nähe des Aufnahmekopfes. Wenn Strom an den STO angelegt wird, wird aufgrund der Polarisation der Elektronenspins ein kreisförmiges elektromagnetisches Feld mit einer Frequenz von 20–40 GHz erzeugt.

Bei Einwirkung eines solchen Feldes kommt es in dem für MAMR verwendeten Ferromagneten zu Resonanz, die zur Präzession der magnetischen Momente der Domänen in diesem Feld führt. Im Wesentlichen weicht das magnetische Moment von seiner Achse ab und um seine Richtung zu ändern (umzudrehen), benötigt der Aufnahmekopf deutlich weniger Energie.

Der Einsatz der MAMR-Technologie ermöglicht die Aufnahme ferromagnetischer Substanzen mit größerer Koerzitivkraft, was bedeutet, dass die Größe magnetischer Domänen reduziert werden kann, ohne dass ein superparamagnetischer Effekt befürchtet werden muss. Der STO-Generator trägt dazu bei, die Größe des Aufzeichnungskopfes zu reduzieren, was die Aufzeichnung von Informationen auf kleineren magnetischen Domänen ermöglicht und somit die Aufzeichnungsdichte erhöht.

Western Digital, auch bekannt als WD, führte diese Technologie im Jahr 2017 ein. Bald darauf, im Jahr 2018, unterstützte Toshiba diese Technologie. Während WD und Toshiba die MAMR-Technologie verfolgen, setzt Seagate auf HAMR.

Thermomagnetische Aufzeichnung (HAMR)

Heat-Assisted Magnetic Recording (HAMR) ist eine energieeffiziente magnetische Datenspeichertechnologie, die die Datenmenge, die auf einem magnetischen Gerät wie einer Festplatte gespeichert werden kann, erheblich erhöhen kann, indem sie die von einem Laser gelieferte Wärme zum Schreiben nutzt die Daten auf die Oberfläche des Festplattensubstrats. Durch Erhitzen werden Datenbits viel näher beieinander auf dem Plattensubstrat platziert, was eine höhere Datendichte und -kapazität ermöglicht.

Diese Technologie ist ziemlich schwierig zu implementieren. 200 mW Laser schnell Aufheizen einem winzigen Bereich von bis zu 400 °C vor der Aufnahme, ohne die restlichen Daten auf der Festplatte zu beeinträchtigen oder zu beschädigen. Der Aufheiz-, Datenaufzeichnungs- und Abkühlvorgang muss in weniger als einer Nanosekunde abgeschlossen sein. Die Bewältigung dieser Herausforderungen erforderte die Entwicklung nanoskaliger Oberflächenplasmonen, auch bekannt als oberflächengeführte Laser, anstelle der direkten Lasererwärmung sowie neuartiger Glasplatten und Wärmemanagementbeschichtungen, die einer schnellen punktuellen Erwärmung standhalten, ohne den Aufzeichnungskopf oder andere in der Nähe befindliche Geräte zu beschädigen Daten und verschiedene andere technische Herausforderungen, die bewältigt werden mussten.

Trotz zahlreicher skeptischer Aussagen stellte Seagate diese Technologie erstmals im Jahr 2013 vor. Die ersten CDs wurden 2018 ausgeliefert.

Ende des Films, weiter zum Anfang!

Wir beginnen im Jahr 1951 und beenden den Artikel mit einem Blick in die Zukunft der Speichertechnologie. Die Datenspeicherung hat sich im Laufe der Zeit stark verändert, von Papierbändern zu Metall- und Magnetspeichern, Seilspeichern, rotierenden Festplatten, optischen Datenträgern, Flash-Speichern und anderen. Der Fortschritt hat zu schnelleren, kleineren und leistungsfähigeren Speichergeräten geführt.

Wenn man NVMe mit dem UNISERVO-Metallband von 1951 vergleicht, kann NVMe 486 % mehr Ziffern pro Sekunde lesen. Beim Vergleich von NVMe mit Zip-Laufwerken, meinem Liebling aus der Kindheit, kann NVMe 111 % mehr Ziffern pro Sekunde lesen.

Das Einzige, was wahr bleibt, ist die Verwendung von 0 und 1. Die Art und Weise, wie wir dies tun, ist sehr unterschiedlich. Ich hoffe, dass Sie, wenn Sie das nächste Mal eine CD-RW mit Liedern für einen Freund brennen oder ein Heimvideo im Optical Disc Archive speichern, darüber nachdenken, wie eine nicht reflektierende Oberfläche zu einer 0 und eine reflektierende Oberfläche zu einer 1 führt. Wenn Sie ein Mixtape auf Kassette aufnehmen, denken Sie daran, dass es sehr eng mit der im Commodore PET verwendeten Datasette verwandt ist. Vergessen Sie nicht, freundlich zu sein und zurückzuspulen.

Danke Robert Mustacchi и Rick Alterra für die Leckerbissen (ich kann nicht anders) im gesamten Artikel!

Was können Sie sonst noch auf dem Blog lesen? Cloud4Y

Ostereier auf topografischen Karten der Schweiz
Computermarken der 90er, Teil 1
Wie die Mutter eines Hackers das Gefängnis betrat und den Computer des Chefs infizierte
Diagnose von Netzwerkverbindungen auf dem virtuellen EDGE-Router
Wie ist die Bank gescheitert?

Abonnieren Sie unseren Telegram-Kanal, damit Sie den nächsten Artikel nicht verpassen! Wir schreiben höchstens zweimal pro Woche und nur geschäftlich. Wir erinnern Sie auch daran, dass Cloud4Y einen sicheren und zuverlässigen Fernzugriff auf Geschäftsanwendungen und Informationen bieten kann, die zur Gewährleistung der Geschäftskontinuität erforderlich sind. Fernarbeit ist ein zusätzliches Hindernis für die Ausbreitung des Coronavirus. Für weitere Informationen wenden Sie sich bitte an unsere Manager unter Webseite.

Source: habr.com

Kommentar hinzufügen