SMR (tiled) harddiske uden at angive tilstedeværelsen af ​​SMR gik ind i salgskanaler

Alle tre producenter begyndte at sælge relativt små, startende fra 2TB HDD SMR-diske (flisebelagt)uden at specificere det i specifikationerne: WD, Seagate, Toshiba

På det engelsksprogede internet og medier bliver sådanne handlinger kritiseret, og det synes jeg med rette. I Rusland blev THG-ressourcen noteret med en artikel Western Digital bruger DM-SMR, hvilket gør WD Red-drev velegnet til NAS og RAID. Denne artikel er efter min mening en skamløs løgn, fra titlen til konklusionen: "Takket være DM-SMR-optageteknologi har Western Digital gjort sine WD Red-harddiske velegnede til NAS og RAID." Det er interessant, at i den engelske version af artiklen Western Digital erfarer: Nogle røde HDD'er bruger langsom SMR-teknologi uden offentliggørelse
der er ingen antydning af en sådan fordrejning af fakta

Også i teksten henviser thg.ru til Alan Brown,

Alan Brown, netværksadministrator ved UCL Mullard Space Science Laboratory, fandt en vej ud af denne situation. Han opdagede, at RAID-dumps, som udføres, når man tilføjer et nyt drev til et eksisterende RAID-array og derefter overskriver det for at balancere adgangen, fik systemet til at tage de nye WD Red HDD'er ud af kontrol.

Det er ret vagt, hvad det præcist betyder "systemet fjerner nye WD Red HDD'er under dets kontrol." - men ifølge forslagets betydning er dette løsningen

Samtidig Alan skrev faktisk om emnet - men tværtimod

WD40EFAX-drevet, som jeg fyldte med nuller, var i gennemsnit 40MB/s, men startede ved 120MB/s.

I tilfælde af ZFS er resolveren ikke en ende-til-ende blok-niveau-scanning, men hopper hen over hele disken, efterhånden som hver fil gendannes til paritet. Dette ser ud til at forårsage et andet problem på WD40EFAX, hvor en anmodning om at kontrollere en sektor, der endnu ikke er skrevet til, får drevet til internt at logge en "Sector ID Not Found (IDNF)"-fejl og smide en hardware I/O-fejl fra interface til værtssystemet.

RAID-controllere (hardware eller software, RAID5/6 eller ZFS) vil med rimelighed beslutte, at drevet er dårligt efter et par af dem, og skubbe det ud af arrayet, hvis det ikke allerede er sket efter timeout.

Dette stemmer helt sikkert overens med det, jeg har bemærket - modtageren kører med omkring 100MB/s i omkring 40 minutter, hvorefter drevene "dør" og dør gentagne gange, hvis jeg forsøger at genstarte modtageren, men hvis jeg forlader den - efter en time eller deromkring , arbejder de i yderligere 40 minutter, før de falder af.

Det er svært at forestille sig, hvad der præcist fik thg.ru til at gøre dette. Man kan kun gætte på, om det skyldtes pres fra annoncører. Under alle omstændigheder fortjener situationen, hvor populære drev, der er beregnet specifikt til NAS, lydløst erstattes af væsentligt mindre egnede til samme pris og uden at ændre specifikationerne.

På konferencen Der var en omtale af problemet på WD's hjemmeside. Essensen er den samme

Jeg har lige købt 3 WD RED'er til at erstatte aldrende drev i et ZFS-array

ALLE TRE fejler under resilvering med IDNF (sektor ID ikke fundet) fejl:

Så vidt jeg forstår er problemet med
WD RED - WD Red EFAX er SMR-drev og har 256 MB cache. EFRX-drev - brug ikke SMR (disse er almindelige CMR-drev) og har en 64 MB cache
Toshiba har flere modeller flere detaljer her
Seagate har flere serier - flere detaljer her

Kilde: www.habr.com

Tilføj en kommentar