Tout fournisseur de cloud propose des services de stockage de données. Il peut s'agir de stockages froids et chauds, glacés, etc. Stocker des informations dans le cloud est très pratique. Mais comment les données étaient-elles réellement stockées il y a 10, 20, 50 ans ? Cloud4Y a traduit un article intéressant qui parle justement de cela.
Un octet de données peut être stocké de différentes manières, à mesure que de nouveaux supports de stockage plus avancés et plus rapides apparaissent constamment. Un octet est une unité de stockage et de traitement d'informations numériques, composée de huit bits. Un bit peut contenir 0 ou 1.
Dans le cas de cartes perforées, le bit est stocké sous forme de présence/absence d'un trou dans la carte à un certain endroit. Si l’on remonte un peu plus loin jusqu’au moteur analytique de Babbage, les registres qui stockaient les nombres étaient des engrenages. Dans les dispositifs de stockage magnétiques tels que les bandes et les disques, un bit est représenté par la polarité d'une zone spécifique du film magnétique. Dans la mémoire vive dynamique (DRAM) moderne, un bit est souvent représenté comme une charge électrique à deux niveaux stockée dans un dispositif qui stocke l'énergie électrique dans un champ électrique. Un conteneur chargé ou déchargé stocke un peu de données.
En juin 1956 de l'année
UTF-8 est une norme pour représenter les caractères sous forme de huit bits, permettant à chaque point de code compris entre 0 et 127 d'être stocké dans un seul octet. Si l’on se souvient de l’ASCII, c’est tout à fait normal pour les caractères anglais, mais les caractères d’autres langues sont souvent exprimés sur deux octets ou plus. UTF-16 est une norme pour représenter les caractères sur 16 bits, et UTF-32 est une norme pour représenter les caractères sur 32 bits. En ASCII, chaque caractère est un octet, mais en Unicode, ce qui n'est souvent pas tout à fait vrai, un caractère peut occuper 1, 2, 3 octets ou plus. L'article utilisera des groupes de bits de différentes tailles. Le nombre de bits dans un octet varie en fonction de la conception du support.
Dans cet article, nous allons voyager dans le temps à travers différents supports de stockage pour nous plonger dans l’histoire du stockage des données. En aucun cas, nous ne commencerons à étudier en profondeur chaque support de stockage jamais inventé. Il s’agit d’un article informatif amusant qui ne prétend en aucun cas avoir une signification encyclopédique.
Commençons. Disons que nous avons un octet de données à stocker : la lettre j, soit sous forme d'octet codé 6a, soit sous forme binaire 01001010. Au fur et à mesure que nous voyageons dans le temps, l'octet de données sera utilisé dans plusieurs technologies de stockage qui seront décrites.
1951
Notre histoire commence en 1951 avec le lecteur de bande UNIVAC UNISERVO pour l'ordinateur UNIVAC 1. Ce fut le premier lecteur de bande créé pour un ordinateur commercial. La bande était constituée d'une fine bande de bronze nickelé de 12,65 mm de large (appelée Vicalloy) et de près de 366 mètres de long. Nos octets de données pourraient être stockés à 7 200 caractères par seconde sur une bande se déplaçant à 2,54 mètres par seconde. À ce stade de l’histoire, vous pouviez mesurer la vitesse d’un algorithme de stockage par la distance parcourue par la bande.
1952
Avance rapide d'un an jusqu'au 21 mai 1952, lorsqu'IBM a annoncé la sortie de son premier lecteur de bande magnétique, l'IBM 726. Notre octet de données pouvait désormais être déplacé de la bande métallique UNISERVO vers la bande magnétique IBM. Cette nouvelle maison s'est avérée très confortable pour notre très petit octet de données, puisque la bande peut stocker jusqu'à 2 millions de chiffres. Cette bande magnétique à 7 pistes se déplaçait à une vitesse de 1,9 mètres par seconde avec un débit en bauds de 12 500
La bande IBM 726 comportait sept pistes, dont six étaient utilisées pour stocker des informations et une pour le contrôle de parité. Une bobine pouvait contenir jusqu'à 400 mètres de ruban d'une largeur de 1,25 cm. La vitesse de transfert de données atteignait théoriquement 12,5 mille caractères par seconde ; la densité d'enregistrement est de 40 bits par centimètre. Ce système utilisait une méthode de « canal sous vide » dans laquelle une boucle de ruban circulait entre deux points. Cela a permis à la bande de démarrer et de s'arrêter en une fraction de seconde. Ceci a été réalisé en plaçant de longues colonnes à vide entre les bobines de bande et les têtes de lecture/écriture pour absorber l'augmentation soudaine de la tension dans la bande, sans laquelle la bande se briserait généralement. Un anneau en plastique amovible à l'arrière de la bobine de ruban assurait la protection en écriture. Une bobine de ruban peut stocker environ 1,1
N'oubliez pas les cassettes VHS. Qu’avez-vous dû faire pour revoir le film ? Rembobinez la cassette ! Combien de fois avez-vous fait tourner une cassette pour votre lecteur sur un crayon, afin de ne pas gaspiller les piles et d'avoir une cassette déchirée ou coincée ? On peut en dire autant des bandes utilisées pour les ordinateurs. Les programmes ne pouvaient pas simplement parcourir la bande ou accéder aux données de manière aléatoire, ils pouvaient lire et écrire des données de manière strictement séquentielle.
1956
Quelques années plus tard, en 1956, l'ère du stockage sur disque magnétique a commencé avec l'achèvement par IBM du système informatique RAMAC 305, que Zellerbach Paper a fourni à
RAMAC permettait d'accéder en temps réel à de grandes quantités de données, contrairement aux bandes magnétiques ou aux cartes perforées. IBM a annoncé que le RAMAC était capable de stocker l'équivalent de 64 000
1963
Revenons rapidement à 1963, lorsque DECtape a été introduit. Le nom vient de Digital Equipment Corporation, connue sous le nom de DEC. DECtape était peu coûteux et fiable, il a donc été utilisé dans de nombreuses générations d'ordinateurs DEC. Il s'agissait d'un ruban de 19 mm, laminé et pris en sandwich entre deux couches de Mylar sur une bobine de quatre pouces (10,16 cm).
Contrairement à ses prédécesseurs lourds et encombrants, DECtape pouvait être transporté à la main. Cela en faisait une excellente option pour les ordinateurs personnels. Contrairement à ses homologues à 7 pistes, DECtape avait 6 pistes de données, 2 pistes de repère et 2 pour l'horloge. Les données ont été enregistrées à 350 bits par pouce (138 bits par cm). Notre octet de données, qui est de 8 bits mais peut être étendu à 12, pourrait être transféré vers DECtape à 8325 12 mots de 93 bits par seconde à une vitesse de bande de 12 (± XNUMX) pouces par seconde.
1967
Quatre ans plus tard, en 1967, une petite équipe IBM commença à travailler sur le lecteur de disquettes IBM, dont le nom de code était :
Notre octet pouvait désormais être stocké sur des disquettes Mylar à revêtement magnétique de 8 pouces en lecture seule, connues aujourd'hui sous le nom de disquettes. Au moment de sa sortie, le produit s'appelait IBM 23FD Floppy Disk Drive System. Les disques pouvaient contenir 80 kilo-octets de données. Contrairement aux disques durs, un utilisateur peut facilement déplacer une disquette dans une coque de protection d'un lecteur à un autre. Plus tard, en 1973, IBM a lancé la disquette en lecture/écriture, qui est ensuite devenue un produit industriel.
1969
En 1969, l'Apollo Guidance Computer (AGC) doté d'une mémoire de corde a été lancé à bord du vaisseau spatial Apollo 11, qui transportait les astronautes américains vers la Lune et en revenait. Cette mémoire en corde a été fabriquée à la main et pouvait contenir 72 kilo-octets de données. La production de mémoire de corde demandait beaucoup de travail, était lente et nécessitait des compétences similaires à celles du tissage ; ça pourrait prendre
1977
En 1977, le Commodore PET, le premier ordinateur personnel (à succès), est lancé. Le PET a utilisé un Commodore 1530 Datasette, ce qui signifie données plus cassette. PET a converti les données en signaux audio analogiques, qui ont ensuite été stockés sur
1978
Un an plus tard, en 1978, MCA et Philips introduisent le LaserDisc sous le nom de « Discovision ». Jaws a été le premier film vendu sur LaserDisc aux États-Unis. Sa qualité audio et vidéo était bien meilleure que celle de ses concurrents, mais le disque laser était trop cher pour la plupart des consommateurs. Le LaserDisc ne pouvait pas être enregistré, contrairement aux cassettes VHS sur lesquelles les gens enregistraient des programmes télévisés. Les disques laser fonctionnaient avec la vidéo analogique, l'audio stéréo FM analogique et le code d'impulsion
1979
Un an plus tard, en 1979, Alan Shugart et Finis Conner fondent Seagate Technology avec l'idée de faire évoluer le disque dur jusqu'à la taille d'une disquette de 5 ¼ pouces, ce qui était la norme à l'époque. Leur premier produit en 1980 était le disque dur Seagate ST506, le premier disque dur pour ordinateurs compacts. Le disque contenait cinq mégaoctets de données, ce qui à l'époque était cinq fois plus volumineux qu'une disquette standard. Les fondateurs ont réussi à atteindre leur objectif de réduire la taille du disque à la taille d'une disquette de 5¼ pouces. Le nouveau dispositif de stockage de données était une plaque métallique rigide recouverte des deux côtés d'une fine couche de matériau de stockage de données magnétique. Nos octets de données pourraient être transférés sur disque à une vitesse de 625 kilo-octets par
1981
Avance rapide de quelques années jusqu'en 1981, lorsque Sony a présenté les premières disquettes de 3,5 pouces. Hewlett-Packard est devenu le premier à adopter cette technologie en 1982 avec son HP-150. Cela a rendu les disquettes de 3,5 pouces célèbres et leur a permis d’être largement utilisées dans le monde entier.
1984
Peu de temps après, en 1984, la sortie du Compact Disc Read-Only Memory (CD-ROM) a été annoncée. Il s'agissait de CD-ROM de 550 mégaoctets de Sony et Philips. Le format est né des CD avec audio numérique, ou CD-DA, utilisés pour distribuer de la musique. Le CD-DA a été développé par Sony et Philips en 1982 et avait une capacité de 74 minutes. Selon la légende, lorsque Sony et Philips négociaient la norme CD-DA, l'une des quatre personnes insistait sur le fait qu'elle pourrait
1984
Toujours en 1984, Fujio Masuoka a développé un nouveau type de mémoire à grille flottante appelée mémoire flash, capable d'être effacée et réécrite plusieurs fois.
Prenons un moment pour examiner la mémoire flash utilisant un transistor à grille flottante. Les transistors sont des portails électriques qui peuvent être activés et désactivés individuellement. Puisque chaque transistor peut être dans deux états différents (activé et bloqué), il peut stocker deux nombres différents : 0 et 1. Une grille flottante fait référence à une deuxième grille ajoutée au transistor du milieu. Cette deuxième grille est isolée par une fine couche d'oxyde. Ces transistors utilisent une petite tension appliquée à la grille du transistor pour indiquer s'il est passant ou bloqué, ce qui se traduit par un 0 ou un 1.
Avec les grilles flottantes, lorsque la tension appropriée est appliquée à travers la couche d'oxyde, les électrons la traversent et restent bloqués sur les grilles. Par conséquent, même lorsque l’alimentation est coupée, les électrons restent sur eux. Lorsqu'il n'y a pas d'électrons sur les grilles flottantes, ils représentent un 1, et lorsque les électrons sont bloqués, ils représentent un 0. Inverser ce processus et appliquer une tension appropriée à travers la couche d'oxyde dans la direction opposée fait circuler les électrons à travers les grilles flottantes. et restaurer le transistor à son état d'origine. Les cellules sont donc programmables et
La conception de Masuoka était légèrement plus abordable mais moins flexible que la PROM effaçable électriquement (EEPROM), car elle nécessitait plusieurs groupes de cellules qui devaient être effacées ensemble, mais cela expliquait également sa vitesse.
À l'époque, Masuoka travaillait pour Toshiba. Il est finalement parti travailler à l'Université du Tohoku parce qu'il était mécontent que l'entreprise ne le récompense pas pour son travail. Masuoka a poursuivi Toshiba, exigeant une compensation. En 2006, il a reçu 87 millions de yuans, soit l'équivalent de 758 XNUMX dollars américains. Cela semble encore insignifiant compte tenu de l’influence croissante de la mémoire flash dans l’industrie.
Pendant que nous parlons de mémoire flash, il convient également de noter quelle est la différence entre la mémoire flash NOR et NAND. Comme nous le savons déjà grâce à Masuoka, le flash stocke les informations dans des cellules mémoire constituées de transistors à grille flottante. Les noms des technologies sont directement liés à la manière dont les cellules mémoire sont organisées.
Dans le flash NOR, les cellules de mémoire individuelles sont connectées en parallèle pour fournir un accès aléatoire. Cette architecture réduit le temps de lecture nécessaire à l'accès aléatoire aux instructions du microprocesseur. La mémoire flash NOR est idéale pour les applications à faible densité qui sont principalement en lecture seule. C'est pourquoi la plupart des processeurs chargent leur firmware, généralement à partir de la mémoire flash NOR. Masuoka et ses collègues ont introduit l'invention du flash NOR en 1984 et du flash NAND en XNUMX.
Les développeurs NAND Flash ont abandonné la fonctionnalité d'accès aléatoire pour obtenir une taille de cellule mémoire plus petite. Cela se traduit par une taille de puce plus petite et un coût par bit inférieur. L'architecture de mémoire flash NAND se compose de huit transistors de mémoire connectés en série. Cela permet d'obtenir une densité de stockage élevée, une taille de cellule mémoire plus petite et une écriture et un effacement de données plus rapides car il peut programmer des blocs de données simultanément. Ceci est réalisé en exigeant que les données soient réécrites lorsqu'elles ne sont pas écrites de manière séquentielle et que les données existent déjà dans
1991
Passons à 1991, lorsqu'un prototype de disque SSD (Solid State Drive) a été créé par SanDisk, alors connu sous le nom de
1994
L’un de mes supports de stockage préférés depuis mon enfance était les disques Zip. En 1994, Iomega a lancé le Zip Disk, une cartouche de 100 Mo au format 3,5 pouces, à peu près légèrement plus épaisse qu'un lecteur standard de 3,5 pouces. Les versions ultérieures des disques pouvaient stocker jusqu'à 2 gigaoctets. L'avantage de ces disques est qu'ils avaient la taille d'une disquette, mais avaient la capacité de stocker une plus grande quantité de données. Nos octets de données pourraient être écrits sur un disque Zip à 1,4 mégaoctets par seconde. À titre de comparaison, à cette époque, 1,44 mégaoctets d'une disquette de 3,5 pouces étaient écrits à une vitesse d'environ 16 kilo-octets par seconde. Sur un disque Zip, les têtes lisent/écrivent des données sans contact, comme si elles volaient au-dessus de la surface, ce qui s'apparente au fonctionnement d'un disque dur, mais diffère du principe de fonctionnement des autres disquettes. Les disques Zip sont rapidement devenus obsolètes en raison de problèmes de fiabilité et de disponibilité.
1994
La même année, SanDisk a introduit CompactFlash, largement utilisé dans les caméras vidéo numériques. Comme pour les CD, les vitesses CompactFlash sont basées sur des valeurs « x » telles que 8x, 20x, 133x, etc. Le taux de transfert de données maximum est calculé en fonction du débit binaire du CD audio original, 150 kilo-octets par seconde. Le taux de transfert ressemble à R = Kx150 kB/s, où R est le taux de transfert et K est la vitesse nominale. Ainsi, pour un CompactFlash 133x, notre octet de données sera écrit à 133x150 Ko/s soit environ 19 950 Ko/s ou 19,95 Mo/s. La CompactFlash Association a été fondée en 1995 dans le but de créer une norme industrielle pour les cartes mémoire flash.
1997
Quelques années plus tard, en 1997, sortait le disque compact réinscriptible (CD-RW). Ce disque optique était utilisé pour stocker des données ainsi que pour copier et transférer des fichiers vers divers appareils. Les CD peuvent être réécrits environ 1000 XNUMX fois, ce qui n'était pas un facteur limitant à l'époque puisque les utilisateurs écrasaient rarement les données.
Les CD-RW sont basés sur une technologie qui modifie la réflectivité d'une surface. Dans le cas du CD-RW, les déphasages dans un revêtement spécial composé d'argent, de tellure et d'indium entraînent la capacité de réfléchir ou non le faisceau de lecture, ce qui signifie 0 ou 1. Lorsque le composé est à l'état cristallin, il est translucide, ce qui signifie 1. Lorsque le composé fond dans un état amorphe, il devient opaque et non réfléchissant, ce qui
Les DVD ont finalement repris la majeure partie de la part de marché des CD-RW.
1999
Passons à 1999, lorsqu'IBM a présenté les plus petits disques durs au monde à l'époque : les microdrives IBM de 170 Mo et 340 Mo. Il s'agissait de petits disques durs de 2,54 cm conçus pour s'insérer dans les emplacements CompactFlash Type II. Il était prévu de créer un appareil qui serait utilisé comme CompactFlash, mais avec une plus grande capacité de mémoire. Cependant, elles ont rapidement été remplacées par des clés USB, puis par des cartes CompactFlash plus grandes au fur et à mesure de leur apparition. Comme les autres disques durs, les microdrives étaient mécaniques et contenaient de petits disques rotatifs.
2000
Un an plus tard, en 2000, les clés USB faisaient leur apparition. Les lecteurs étaient constitués de mémoire flash enfermée dans un petit format avec une interface USB. Selon la version de l'interface USB utilisée, la vitesse peut varier. L'USB 1.1 est limité à 1,5 mégabits par seconde, tandis que l'USB 2.0 peut gérer 35 mégabits par seconde.
2005
En 2005, les fabricants de disques durs (HDD) ont commencé à commercialiser des produits utilisant l'enregistrement magnétique perpendiculaire, ou PMR. Chose intéressante, cela s'est produit au même moment où l'iPod Nano annonçait l'utilisation d'une mémoire flash au lieu de disques durs de 1 pouce dans l'iPod Mini.
Un disque dur typique contient un ou plusieurs disques durs recouverts d'un film magnétiquement sensible composé de minuscules grains magnétiques. Les données sont enregistrées lorsque la tête d'enregistrement magnétique vole juste au-dessus du disque en rotation. Ceci est très similaire à un tourne-disque de gramophone traditionnel, la seule différence étant que dans un gramophone, le stylet est en contact physique avec le disque. Lorsque les disques tournent, l’air en contact avec eux crée une légère brise. Tout comme l'air sur une aile d'avion génère de la portance, l'air génère de la portance sur la tête du profil aérodynamique.
Le prédécesseur du PMR était l'enregistrement magnétique longitudinal, ou LMR. La densité d'enregistrement du PMR peut être plus de trois fois supérieure à celle du LMR. La principale différence entre PMR et LMR réside dans le fait que la structure des grains et l'orientation magnétique des données stockées des supports PMR sont en colonnes plutôt que longitudinales. Le PMR a une meilleure stabilité thermique et un rapport signal/bruit (SNR) amélioré grâce à une meilleure séparation et uniformité des grains. Il présente également une capacité d'enregistrement améliorée grâce à des champs de tête plus forts et un meilleur alignement des supports magnétiques. Comme le LMR, les limites fondamentales du PMR reposent sur la stabilité thermique des bits de données écrits par l'aimant et sur la nécessité d'avoir un SNR suffisant pour lire les informations écrites.
2007
En 2007, le premier disque dur de 1 To d'Hitachi Global Storage Technologies a été annoncé. Le Hitachi Deskstar 7K1000 utilisait cinq plateaux de 3,5 pouces de 200 Go et tournait à
2009
En 2009, des travaux techniques ont commencé sur la création d'une mémoire express non volatile, ou
Présent et futur
Mémoire de classe de stockage
Maintenant que nous avons voyagé dans le temps (ha !), jetons un coup d'œil à l'état actuel de la mémoire de classe de stockage. SCM, comme NVM, est robuste, mais SCM offre également des performances supérieures ou comparables à la mémoire principale, et
Mémoire à changement de phase (PCM)
Auparavant, nous avons examiné comment la phase change pour le CD-RW. Le PCM est similaire. Le matériau à changement de phase est généralement du Ge-Sb-Te, également connu sous le nom de GST, qui peut exister sous deux états différents : amorphe et cristallin. L'état amorphe a une résistance plus élevée, notant 0, que l'état cristallin, notant 1. En attribuant des valeurs de données aux résistances intermédiaires, le PCM peut être utilisé pour stocker plusieurs états comme
Mémoire vive à couple de transfert de rotation (STT-RAM)
STT-RAM se compose de deux couches magnétiques permanentes ferromagnétiques séparées par un diélectrique, un isolant qui peut transmettre la force électrique sans conduire. Il stocke des bits de données basés sur les différences de directions magnétiques. Une couche magnétique, appelée couche de référence, a une direction magnétique fixe, tandis que l'autre couche magnétique, appelée couche libre, a une direction magnétique contrôlée par le courant passé. Pour 1, la direction d'aimantation des deux couches est alignée. Pour 0, les deux couches ont des directions magnétiques opposées.
Mémoire vive résistive (ReRAM)
Une cellule ReRAM est constituée de deux électrodes métalliques séparées par une couche d'oxyde métallique. Un peu comme la conception de la mémoire flash de Masuoka, où les électrons pénètrent dans la couche d'oxyde et restent coincés dans la grille flottante, ou vice versa. Cependant, avec ReRAM, l’état de la cellule est déterminé en fonction de la concentration d’oxygène libre dans la couche d’oxyde métallique.
Bien que ces technologies soient prometteuses, elles présentent néanmoins des inconvénients. PCM et STT-RAM ont une latence d'écriture élevée. Les latences PCM sont dix fois supérieures à celles de la DRAM, tandis que les latences STT-RAM sont dix fois supérieures à celles de la SRAM. PCM et ReRAM ont une limite sur la durée pendant laquelle une écriture peut se produire avant qu'une erreur grave ne se produise, ce qui signifie que l'élément de mémoire reste bloqué.
En août 2015, Intel a annoncé la sortie d'Optane, son produit basé sur 3DXPoint. Optane revendique des performances 1000 XNUMX fois supérieures aux SSD NAND à un prix quatre à cinq fois supérieur à celui de la mémoire flash. Optane est la preuve que le SCM est bien plus qu'une simple technologie expérimentale. Il sera intéressant d’observer le développement de ces technologies.
Disques durs (HDD)
Disque dur à l'hélium (HHDD)
Un disque à l'hélium est un disque dur (HDD) de grande capacité rempli d'hélium et hermétiquement fermé pendant le processus de fabrication. Comme les autres disques durs, comme nous l’avons dit plus tôt, il ressemble à un plateau tournant doté d’un plateau tournant à revêtement magnétique. Les disques durs typiques contiennent simplement de l'air à l'intérieur de la cavité, mais cet air provoque une certaine résistance lorsque les plateaux tournent.
Les ballons à l'hélium flottent car l'hélium est plus léger que l'air. En fait, l'hélium a une densité 1/7 de celle de l'air, ce qui réduit la force de freinage lorsque les plaques tournent, entraînant une réduction de la quantité d'énergie nécessaire pour faire tourner les disques. Cependant, cette fonctionnalité est secondaire, la principale caractéristique distinctive de l'hélium était qu'il vous permet d'emballer 7 plaquettes dans le même facteur de forme qui n'en contiendrait normalement que 5. Si nous nous souvenons de l'analogie de notre aile d'avion, alors c'est un analogue parfait. . L’hélium réduisant la traînée, les turbulences sont éliminées.
Nous savons également que les ballons d'hélium commencent à couler au bout de quelques jours car l'hélium en sort. La même chose peut être dite à propos des périphériques de stockage. Il a fallu des années avant que les fabricants soient capables de créer un conteneur empêchant l'hélium de s'échapper du facteur de forme tout au long de la durée de vie du disque. Backblaze a mené des expériences et a découvert que les disques durs à l'hélium présentaient un taux d'erreur annuel de 1,03 %, contre 1,06 % pour les disques standards. Bien entendu, cette différence est si minime qu’on peut en tirer une conclusion sérieuse
Le facteur de forme rempli d'hélium peut contenir un disque dur encapsulé à l'aide de PMR, dont nous avons parlé ci-dessus, ou d'un enregistrement magnétique par micro-ondes (MAMR) ou d'un enregistrement magnétique assisté par chaleur (HAMR). Toute technologie de stockage magnétique peut être combinée avec de l’hélium au lieu de l’air. En 2014, HGST a combiné deux technologies de pointe dans son disque dur à l'hélium de 10 To, qui utilisait l'enregistrement magnétique en bardeaux contrôlé par l'hôte, ou SMR (enregistrement magnétique en bardeaux). Parlons un peu du SMR, puis regardons le MAMR et le HAMR.
Technologie d'enregistrement magnétique des tuiles
Auparavant, nous avons examiné l'enregistrement magnétique perpendiculaire (PMR), qui était le prédécesseur du SMR. Contrairement au PMR, le SMR enregistre de nouvelles pistes qui chevauchent une partie de la piste magnétique précédemment enregistrée. Cela rend la piste précédente plus étroite, permettant une densité de piste plus élevée. Le nom de la technologie vient du fait que les pistes de recouvrement sont très similaires aux pistes sur toit en tuiles.
SMR entraîne un processus d'écriture beaucoup plus complexe, puisque l'écriture sur une piste écrase la piste adjacente. Cela ne se produit pas lorsque le substrat du disque est vide et que les données sont séquentielles. Mais dès que vous enregistrez sur une série de pistes contenant déjà des données, les données adjacentes existantes sont effacées. Si une piste adjacente contient des données, elle doit être réécrite. Ceci est assez similaire au flash NAND dont nous avons parlé plus tôt.
Les appareils SMR masquent cette complexité en gérant le micrologiciel, ce qui donne lieu à une interface similaire à n'importe quel autre disque dur. En revanche, les périphériques SMR gérés par l'hôte, sans adaptation particulière des applications et des systèmes d'exploitation, ne permettront pas l'utilisation de ces disques. L'hôte doit écrire sur les appareils de manière strictement séquentielle. Dans le même temps, les performances des appareils sont prévisibles à 100 %. Seagate a commencé à expédier des disques SMR en 2013, revendiquant une densité 25 % plus élevée
Enregistrement magnétique micro-ondes (MAMR)
L'enregistrement magnétique assisté par micro-ondes (MAMR) est une technologie de mémoire magnétique qui utilise une énergie similaire au HAMR (discuté ensuite). Une partie importante du MAMR est l'oscillateur de couple de rotation (STO). Le STO lui-même est situé à proximité immédiate de la tête d'enregistrement. Lorsqu'un courant est appliqué au STO, un champ électromagnétique circulaire d'une fréquence de 20 à 40 GHz est généré en raison de la polarisation des spins électroniques.
Lorsqu'il est exposé à un tel champ, une résonance se produit dans le ferromagnétique utilisé pour le MAMR, ce qui conduit à une précession des moments magnétiques des domaines dans ce champ. Essentiellement, le moment magnétique s'écarte de son axe et pour changer de direction (retournement), la tête d'enregistrement a besoin de beaucoup moins d'énergie.
L'utilisation de la technologie MAMR permet de prélever des substances ferromagnétiques avec une force coercitive plus importante, ce qui permet de réduire la taille des domaines magnétiques sans craindre de provoquer un effet superparamagnétique. Le générateur STO permet de réduire la taille de la tête d'enregistrement, ce qui permet d'enregistrer des informations sur des domaines magnétiques plus petits, et donc d'augmenter la densité d'enregistrement.
Western Digital, également connu sous le nom de WD, a introduit cette technologie en 2017. Peu de temps après, en 2018, Toshiba a pris en charge cette technologie. Tandis que WD et Toshiba poursuivent la technologie MAMR, Seagate parie sur HAMR.
Enregistrement thermomagnétique (HAMR)
L'enregistrement magnétique assisté par chaleur (HAMR) est une technologie de stockage de données magnétique économe en énergie qui peut augmenter considérablement la quantité de données pouvant être stockées sur un périphérique magnétique, tel qu'un disque dur, en utilisant la chaleur fournie par un laser pour faciliter l'écriture. les données sur les substrats de surface du disque dur. Le chauffage rapproche les bits de données sur le substrat du disque, ce qui permet d'augmenter la densité et la capacité des données.
Cette technologie est assez difficile à mettre en œuvre. Laser 200 mW rapide
Malgré de nombreuses déclarations sceptiques, Seagate a présenté cette technologie pour la première fois en 2013. Les premiers disques ont commencé à être expédiés en 2018.
Fin du film, allez au début !
Nous avons commencé en 1951 et terminons cet article par un aperçu de l'avenir de la technologie de stockage. Le stockage des données a considérablement changé au fil du temps, passant du ruban de papier au métal et magnétique, en passant par la mémoire par corde, les disques rotatifs, les disques optiques, la mémoire flash et autres. Les progrès ont abouti à des périphériques de stockage plus rapides, plus petits et plus puissants.
Si vous comparez NVMe à la bande métallique UNISERVO de 1951, NVMe peut lire 486 111 % de chiffres en plus par seconde. Lorsque l'on compare NVMe à mes lecteurs Zip préférés d'enfance, NVMe peut lire 213,623 % de chiffres en plus par seconde.
La seule chose qui reste vraie est l’utilisation de 0 et 1. Les manières dont nous procédons varient considérablement. J'espère que la prochaine fois que vous graverez un CD-RW de chansons pour un ami ou que vous enregistrerez une vidéo personnelle sur Optical Disc Archive, vous penserez à la façon dont une surface non réfléchissante se traduit par un 0 et une surface réfléchissante par un 1. Ou si vous enregistrez une mixtape sur cassette, rappelez-vous qu'elle est très étroitement liée à la Datasette utilisée dans le Commodore PET. Enfin, n'oubliez pas d'être gentil et de rembobiner.
merci
Que pouvez-vous lire d'autre sur le blog ?
→
→
→
→
→
Abonnez-vous à notre
Source: habr.com