ZFS Basics: at ac euismod

ZFS Basics: at ac euismod

Hoc fonte iam nonnulla argumenta introductoria tractavimus, e.g. quam celeritatem reprehendo tuum agitet и quod RAID?. In secunda harum, etiam polliciti sumus operam dare operam variarum multi- orbis topologiarum in ZFS perseverare. Haec est ratio fasciculi generationis generationis quae nunc ubique diffunditur Apple ad Ubuntu.

Bene, hodie est dies optimus ut cognoscat ZFS, curiosus lector. Iustus scio quod in OpenZFS elit Matt Ahrens humilem censum "est vere durum."

Sed antequam ad numeros accedamus - et pro omnibus variantibus conformationis ZFS octingenti orbis fiet, loqui necesse est. quam In genere, ZFS notitia thesaurorum in disco.

Zpool, vdev et fabrica

ZFS Basics: at ac euismod
In hoc schemate plenum piscinae tres auxiliares vdevs comprehendunt, unam cuiusque classis et quattuor pro RAIDz2 .

ZFS Basics: at ac euismod
Nulla fere ratio est ut piscinam genera et magnitudinum indiscretae vdev efficiat — sed si vis, nihil prohibet te facere.

Ut re vera comprehendere ZFS systema fasciculi, necesse est ut stricte in ipsa eius structura inspicias. Primum, ZFS coniungit traditum volumen et fasciculi administrationis stratis. Secundo utitur exemplari transactionali-in-scribo mechanism. Hae notiones significant systema constitutione valde differre ab institutis fasciculi institutis et RADIUS vestit. Primae clausulae fundamentales ad intellegendum sunt piscinae repositae (zpool), virtualis fabrica (vdev) et vera fabrica (machina).

zpool

Stagnum zpool repositum est structura summa ZFS. Quaelibet piscina continet unam vel plures virtuales machinas. Rursus, unaquaeque earum unam vel plures continet veras machinas (fabrica). Lacus lorem ipsum contenta sunt unitates. Computatorium physicum unum vel duos vel plures lacus separatos continere potest, sed uterque ab aliis omnino separatus est. Stagna virtualis cogitationibus communicare non possunt.

ZFS redundantia est in gradu virtutis virtualis, non in massa lacus. Nulla omnino est redundantia in plano piscinae—si vdev vel devotus vdev amittitur, tota piscina una cum eo amittitur.

Paludes repositionis modernae superare possunt iacturam virtualis machinae cellae vel stipes - quamvis parvam quantitatem sordidae notitiae amittant, si per vim autocineti vel systematis fragorem vdev truncum amittant.

Communis deceptio est quae ZFS "plagas data" trans totam piscinam scripta sunt. Hoc non est verum. Zpool non est ridiculam RAID0, magis ridiculam JBOD cum universa variabilis mechanism distributio.

Pleraque ex parte, monumenta inter virtuales strophas paratas secundum spatium vacuum praesto distribuuntur, ita in theoria omnes simul implebuntur. Recentiores versiones ZFS rationem hodiernam vdev usus (dispositionis) considerare - si una virtualis fabrica significanter negotiosa est quam alia (exempli gratia, onere legi debet), ad tempus omittendum erit scribens, summa tamen ratione spatium vacuum. .

Deprehensio redivivus mechanismus in modernis ZFS constructus modos destinatio scribere potest latentiam reducere et augere throughput in periodis ultra modum altitudinis oneris - sed non biga blanche involuntaria permixtio tardis HDDs et celeriter SSDs in uno stagno. Talis piscina inaequalis adhuc velocitate tardissimae machinae operabitur, hoc est quasi omnino ex talibus cogitationibus componatur.

vdev

Quaelibet piscina repositionis unius vel plurium machinis virtualis consistit (vdev). Invicem singulae technas vdev includit unam vel plures reales. Plurimae virtuales machinis pro simplici notitia repositionis adhibentur, sed plures sunt classes adiutorium vdev, inclusa CACH, LOG et SPECIALES. Singulae horum generum vdev unum quinque topologias habere possunt: ​​una fabrica, RAIDz1, RAIDz2, RAIDz3 vel speculum.

RAIDz1, RAIDz2 et RAIDz3 peculiares sunt varietates eorum quae veteres duplicem (diagonalem) pari RAID vocant. 1, 2, 3 refero, quot paritatis caudices singulis datae lane partita sint. Loco orbis separati habent ut pari provideant, virtualis RAIDz machinas pari semi-aequaliter per orbes distribuunt. A RAIDz ordinata tot orbes quot habet cuneos pari amittere potest; si aliam perdiderit, deficiet et piscinam cum ea recipiat.

In speculo machinis virtualis (speculum vdev), unumquodque truncus reponitur in unaquaque fabrica in vdev. Quamvis specula duo lata sint frequentissima, speculum potest continere quemlibet numerum machinorum arbitrarium, in magnis institutionibus, tripli saepe ad emendare usum et tolerantiam culpae legere. Speculum A vdev nullum defectum superesse potest, dum una saltem fabrica in operationali vdev remanet.

Una vdevs per se periculosa sunt. Huiusmodi virtualis fabrica unicum defectum non superabit - et si usus est in repositione vel vdev speciali, tunc eius defectus ad totius piscinae interitum ducet. Valde, caue hic.

CACHE, LOG et speciales virtuales machinis in quibusvis topologiis superioribus creari possunt - sed memento amittere specialem virtualem machinam significat amissionem piscinae, ideo topologia redundans valde commendatur.

fabrica

Probabiliter hoc vocabulum facillimum est ad intellegendum in ZFS - est proprie clausus artificio accessus temere. Memento quod virtualis machinis singulis machinis conficitur, et stagnum virtualis machinis conficitur.

Orbis, sive status magneticus sive solidus, frequentissima sunt machinis truncis communibus ut structurae caudices vdev. Nihilominus, quaelibet machinatio cum descriptorem in /dev facturus - ferramenta integra in RAID vestit, ut singulas cogitationes adhiberi potest.

Scapus rudis simplex est una e praecipuis obiectionibus e quibus vdev fabricari potest. Test lacus a sparsis files Commodissima est via ad reprimendam piscinam mandata et vide quantum spatium in piscinis vel virtuali fabrica alicuius topologiae praesto sit.

ZFS Basics: at ac euismod
Piscinam temptare e fasciculis sparsis in paucis secundis tantum creare potes - sed noli oblivisci totam piscinam eiusque partes postea delere

Dicamus te velle octingenti disci servientis et consilio utendi orbis 10 TB (~ 9300 GiB) orbis - sed non es certus quod topologia maxime tuis necessitatibus conveniat. In exemplo supra, experimentum piscinae ex lima sparsis in materia secundarum construimus - et nunc scimus RAIDz2 vdev octo 10 TB orbis 50 TiB capacitatis utibilis praebet.

Aliud speciale genus machinarum est repercussum. Hot-permundo machinis, dissimilibus machinis regularibus, ad totam piscinam potius quam ad unam virtualem fabricam pertinent. Si quis vdev in stagno deficiat et parca fabrica cum piscinae iuncta sit et praesto, tunc sponte vdev affectatum coniunget.

Cum applicatum vdev affectatum, postea fabrica incipit recipere exemplaria vel reconstructiones notitiarum quae in absentis notae esse debent. In RAID traditum hoc "aedificare" dicitur, et in ZFS "reficere" dicitur.

Gravis est notare machinas reponendas non permanenter defuisse machinas reponere. Hoc solum ad tempus repositum est reducere tempus quod pro vdev degradare capit. Postquam administrator fabrica defecit vdev reponit, redundantia ad fabricam permanentem restituitur, et ab vdev disiungitur et redit ad parcendum pro tota piscina.

Data occidere, cuneos et partes

Proximo statuto aedificationis caudices ad intellegendum in itinere nostro ZFS minus pertinent ad ferramenta et magis ad rem quam ipsa notitia constituitur et reponitur. Paucis stratis hic omissis - sicut metaslabrum - singula, dum altioris structurae intelligentiam sustinemus, vitare cupimus.

Dataset

ZFS Basics: at ac euismod
Cum primum dataset creare, omnia praesto piscinae spatium ostendit. Deinde statuimus numerum - et punctum mutamus. Magic!

ZFS Basics: at ac euismod
Zvol plerumque iustus est schedula fasciculi sui nudata, quam hic ponimus cum filesystem ext4 normali

In ZFS data copia fere idem est ac vexillum ratio fasciculi conscendit. Sicut ratio fasciculi regularis, primo aspectu videtur esse "solum alium folder". Sed sicut systemata fasciculi regularis conscendit, singula data copia ZFS proprias possessiones praecipuas habent.

Imprimis, dataset assignatum numerum habere potest. Si install zfs set quota=100G poolname/datasetname, tunc scribere non poteris folder ascendentis /poolname/datasetname quam C GiB.

Animadverte praesentiam et absentiam — in initio cuiusque lineae virgulas? Quaelibet notitia statuta suum locum habet in utraque hierarchia et ZFS ratio hierarchiae montis. Nulla ducens in ZFS hierarchiam exacuere - incipis nomine piscinae ac deinde via ab uno dato ad proximum. Exempli gratia pool/parent/child in notitia paro nomine child in parentis dataset parent in stagnum cum nomen partum pool.

Defalta, mons punctum dataseae aequivalet nomini suo in Hierarchia ZFS, principali schoe - stagno nomine. pool ascenderunt ut /pool, notitia paro parent mounted in /pool/parentEt puer notitia paro child mounted apud /pool/parent/child. Nihilominus, notitia copiae systematis montis punctum mutari potest.

Si indicant zfs set mountpoint=/lol pool/parent/childErgo notitia paro pool/parent/child ascenderunt in systema ut /lol.

Praeter datastas, volumina commemorare debemus (zvols). Volumen fere idem est ac notitiae certae, nisi quod ratio fasciculi non habet – sicut fabrica stipes est. Potes exempli gratia creare zvol Cum nomine mypool/myzvol, deinde format cum filesystem ext4, et conscende ut fasciculi systematis - nunc file systematis ext4 habeas, sed cum omnibus notis securitatis ZFS! Hoc in unum computatorium ineptum videri potest, sed multo magis sensum efficit ut backend cum machinam iSCSI educendi.

caudices

ZFS Basics: at ac euismod
Scapus vel cuneos repraesentatur. Quisque stipes reponitur in una virtuali fabrica. Moles parametri fere aequalis est recordsize, sed reduci potest ad 2^ashiftsi metadatam vel fasciculum contineat.

ZFS Basics: at ac euismod
Nos vere rem Poenam perficiendi ingentem non kidding sumus, si nimis humilis es transferre

In piscina ZFS, omnia notitia, etiam metadata, in caudices reponuntur. Magnitudo maxima impedimentum cuiusque notitia paro proprietatis definitur recordsize (record size). Magnitudo recordum mutare potest, sed hoc non mutabit magnitudinem vel situm ullis caudicis qui iam ad notas statutae scriptae sunt - tantum afficit novas caudices sicut scriptae sunt.

Nisi aliud specificatur, magnitudo praesentis default ingressu 128 KiB est. Est genus artis difficilis ubi non perfectus effectus, sed in pluribus non terribilis. Recordsize potest posuit cuilibet ex 4K ad 1M (cum additional occasus recordsize etiam plura instituere potes, sed hoc raro utilem).

Quilibet scandalum ad notitias unius tantum fasciculi refertur—non potes exprimi duos ordines diversos in unum stipitem. Quisque fasciculus ex uno vel pluribus caudices consistit, pro magnitudine sua. Si magnitudo tabella minor est quam magnitudo mensurae, in stipite minore recondetur - exempli gratia, stipes cum 2 KiB fasciculi tantum unum occupabit 4 KiB sector in disco.

Si Scapus amplus est, ut plures stipites requirat, omnes viscus ad illum fasciculi magnitudine erunt recordsize - possidet ultimum ingressum, cuius principalis pars erit insueta spatium.

zvol volumina non habent recordsize - pro habent aequivalens volblocksize.

Sectors

Novissima, fundamentalis aedificii interclusio, sector est. Minima unitas corporis est, quae ab hospite notae vel scribi vel legi potest. Aliquot decenniis, maxime orbis usus est 512-byte sectores. Hi dies maxime agitationes configurantur pro 4 sectoribus KiB, et quaedam — praesertim SSDs — configurantur pro 8 sectoribus KiB vel etiam maioribus.

ZFS plumam habet quae sinit te ad magnitudinem sectionis manualem constituendam. Haec proprietas ashift. Aliquanto confuse amovendi vis est duorum. Exempli gratia ashift=9 significat sectoris magnitudine 2^9, seu 512 bytes.

ZFS ratio operativa quaerit ad melius informationes circa singulas fabricas obstructionum, cum ad novum vdev additur, et theoretice sponte se transfert in illa informatione convenienter. Infeliciter, multae agitationes circa magnitudinem sectoris suis mentiuntur ut compatibilitas cum Fenestra XP conservarentur (quod intellegere non potuit cum aliis magnitudinis sectoribus).

Hoc significat quod valde commendatur administratorem ZFS scire re ipsa magnitudinem machinarum suarum et manualem ashift. Si shift nimis parvum est positum, numerus operationum legere/scribarum astronomice augetur. Sic scribens 512-byte "sector" ad realem 4 KiB sector significat habere primam "sector" scribere, deinde legere 4 sectorem KiB, mutare cum secunda 512-byte "sector", rescribere ad novum. 4 KiB sector, et sic de quolibet introitu.

In rerum natura talis poena afficit Samsung EVO SSDs, cui applicare debet ashift=13, sed hae SSDs iacent circa magnitudinem sectoris, ideoque defectus ad . ashift=9. Nisi administrator peritus systematis occasum mutat, haec opera SSD tardius regularis magneticae HDD.

Ad comparationem, quia maior est ashift pene nulla poena est. Nulla effectus realis effectus est, et incrementum in spatio insueto infinitum est (vel nulla, si comprimatur). Quapropter enixe commendamus ut etiam illas pelliculas quae utuntur ad sectores 512-byte install ashift=12 quidem ashift=13confidenter prospicere in futurum.

Property ashift installatur pro singulis virtualis fabrica vdev, et non piscinamut multi falso putant - et post institutionem non mutat. Si accidens ledo ashift Cum novum vdev piscinis addideris, piscinam illam humili operis artificio irrevocabiliter polluisti et, ut fere, nihil aliud est quam piscinam delere et superincipere. Etiam delendo vdev non servabit te ab occasu fracto ashift!

Effingo-on-scribere mechanism

ZFS Basics: at ac euismod
Si ratio fasciculi regularis notitias rescribere debet, unumquemque situm mutat, ubi sita est

ZFS Basics: at ac euismod
Exemplar-in-scribes lima ratio novam versionem scribit ad scandalum et veterem versionem reserat

ZFS Basics: at ac euismod
In abstracto, si ipsam corporis dispositionem caudices negligimus, noster "cometa cometa" simplicificat ad vermem "notatis" quae a sinistra ad dextram per spatium spatii sistitur.

ZFS Basics: at ac euismod
Nunc bonam notionem consequi possumus quomodo exemplar-in-scribendum opus snapshots - unumquodque impedimentum ad plures snapshots pertinere potest et perseverare usque dum omnes coniunguntur snapshots destruuntur

Exemplar in Scribe (CoW) mechanismum fundamentale fundamentum est eorum quae ZFS tale mirabilem rationem reddit. Conceptus fundamentalis simplex est - si rationem limam traditam petis ut limam mutet, prorsus id faciet quod postulasti. Si petis exemplar documenti scribentis ad idem faciendum, dicet "bene"—sed tibi mentietur.

Instead, exemplar lima scribens novam versionem obstructionum mutationis scribit, ac deinde metadata tabellae renovat ut vetus truncum recludat atque eam cum novo stipite coniungat, quem modo scripsisti.

Clausus vetus nexus et nexus novus fit in una operatione, ut interrumpi non possit - si potestatem post hoc factum reponis, novam tabella versionem habes, et si potestatem prius reponis, tunc habes veterem versionem. Certe nullae pugnae in tabella ratio erunt.

Exemplar-in-scribere in ZFS occurrit non solum in ambitu tabellae systematis, sed etiam in gradu orbis administrandi. Hoc significat ZFS non susceptibile est whitespace in censu (foraminis in INCURSUS) - phaenomenon cum habena tantum ex parte ante systematis ingruat memoratum, cum damno in apparatu post reboot. Hic clavus atomice scribitur, vdev semper sequentiae, et Bob avunculus tuus.

ZIL: ZFS intentus log

ZFS Basics: at ac euismod
ZFS synchronos tractat peculiari modo scribit - eas ad tempus reponit sed statim in ZIL antequam postea constanter eas scribens una cum asynchrono scribit.

ZFS Basics: at ac euismod
Typice, data ZIL scripta numquam iterum legitur. Sed hoc potest esse post defectum systematis

ZFS Basics: at ac euismod
SLOGA, seu fabrica secundaria TRUNCUS, peculiaris est simpliciter - et potius velocissimus - vdev ubi ZIL separatim ab praecipuis repositione condi potest.

ZFS Basics: at ac euismod
Post fragorem, omnia sordida notitia in ZIL repraesententur - hoc casu, ZIL in SLOG est, ut ubi suus repraesentetur.

Duo principalia genera scriptorum sunt: ​​synchrona (sync) et asynchrona (async). Plurimis laboribus, plurima pars scriptorum asynchrona sunt - ratio lima in batches aggregata et edenda permittit, minuendo ruptionem et signanter augendo.

Synchronae litterae prorsus diversae sunt. Cum applicatio postulaverit ut scribe synchronum, ratio tabellae indicat: "Opus est hoc committere memoriae non volatili. nuncet tunc nihil possum facere.' Ideo scribit synchronum in disco statim committendum esse - quod si increscit ruptio vel perput redigit, fiat.

ZFS synchronos tractat aliter scribit quam systemata fasciculi regularis — pro statim rutilant eas ad tabulas regulares, ZFS committit eas speciali tabulario nomine ZFS Intenti Log, seu ZIL. Dolum est quod haec records etiam in memoria manent, aggregata cum consuetis petitionibus asynchronis scribentibus, ut postea in repositiones sicut omnino normales TXGs (Transaction Groups).

Per normalem operationem, ZIL scriptum est et numquam iterum legitur. Cum post aliquot momenta monumenta a ZIL in regularibus TXGs ex RAM principalibus reposita mandantur, secernuntur a ZIL. Solum tempus aliquid ex ZIL cum invehendo stagnum legitur.

Si defectus ZFS occurrit - systema operans vel autocinetum vel potentia euentum, dum in ZIL data est, illa notitia legetur in altera piscina import (exempli gratia, cum ratio deficientis restatitur). Quidquid in ZIL legetur, in TXGs distinctum, in summa copia commissum, et postea a ZIL in processu importabili seiungitur.

Una e vdev classibus auxiliatoris vocatur LOG vel SLOG, secundae fabrica LOG. Unum opus est - piscinam separatam et potius multo celerius, cum summa scribendi resistentia, vdev artificium ad reponendam ZIL, pro reponenda ZIL in summa vdev repositione. ZIL idem se gerit pro locorum repositione, sed si vdev cum LOG praealtum scribendi effectum habet, synchrona scribens velocius erit.

Addit vdev cum Log ad stagnum non operatur potes meliorem asynchronous scribentes effectus - etsi omnia scribit ad ZIL cum cogas zfs set sync=alwaysconiungantur tamen cum tabulario principali in TXG eodem modo et eodem gressu ac sine trunco. Sola recta perficiendi emendatio est synchrona scribe latency (sicut superiorum celeritatum iniuriarum operationes citius faciunt sync).

Sed in ambitu, quod iam multum synchronum scribit requirit, vdev LOG potest oblique accelerare asynchronum scribens et incassum legit. Offloading ZIL records ad separatum vdev LOG significat minorem contentionem pro IOPS in repositione primaria, quae observantiam omnium legentium et scribentium aliquatenus ampliat.

Snapshots

Exemplar-in-scribo mechanismum etiam fundamentum necessarium est pro snapshots atomicus ZFS et replicationem asynchronam incrementalem. Systema fasciculi activae monstratorem habet arborem quae omnium viscus notitia currenti notat - cum snapshotum accipis, exemplum simpliciter arboris huius monstratoris facis.

Cum commentarius inscripta est in systematis fasciculi activae, ZFS primum scribit novam versionem scandali ad spatium insuetum. Deinde veterem versionem clausus e systematis fasciculi sejungit. Sed si quidam snapshot notant scandalum vetus, mutatum adhuc manet. Antiquus clausus non erit actu ut spatium vacuum restituetur donec omnes snapshots referentes illum scandalum intereant!

Replicatio

ZFS Basics: at ac euismod
Mea Steam bibliotheca in 2015 fuit 158 ​​GiB et inclusa 126 files. Hoc propemodum est ad condicionem optimalem pro rsync - ZFS replicationem per reticulum "tantum" 927% velociorem.

ZFS Basics: at ac euismod
In retis eiusdem, unum 40GB Fenestra 7 replicans fasciculi virtualis apparatus imaginis prorsus diversa est. ZFS replicatio 289 temporibus velocior est quam rsync-seu "tantum" 161 velocior, si satis sagax es vocare rsync cum loco switch.

ZFS Basics: at ac euismod
Cum VM squamae imaginis, rsync cum eo procedit. Magnitudo TiB 1,9 non est magna imago modernae VM — sed satis magna est replicationem ZFS 1148 temporibus velocius quam rsync, etiam cum argumento rsync in loco.

Cum intelligas quomodo snapshots operare facile erit replicationis essentiam capere. Cum snapshot lignum simpliciter indicis recordationis sequitur, si nos facimus zfs send snapshot, tunc hanc arborem mittimus et omnia monumenta cum eo associata. Cum hoc zfs send в zfs receive in scopum objecto, scribit tum res ipsas contenta truncos et indicibus lignum indicibus ad scopos datas collocandas.

Rerum plus interesting ut in secundo zfs send. Nunc habemus duas systemata, unumquodque continens poolname/datasetname@1Et tu novam snapshot poolname/datasetname@2. Ergo in fonte stagnum habes datasetname@1 и datasetname@2et in scopo piscinae prima tantum est snapshot datasetname@1.

Quia inter principium et scopo commune habemus snapshot datasetname@1, possumus facere id incremental zfs send superpositam. Cum systema dicere zfs send -i poolname/datasetname@1 poolname/datasetname@2comparat duas regulas arborum. Aliqua indicia quae sunt in tantum @2, ut patet ad novos caudices, ut contenta in illis caudices egemus.

In ratio remota, processus incremental send utque simplex. Primum scribimus omnes introitus novos in rivulo comprehensos sendadde regulas his cuneos. Voila, habemus @2 in nova ratio!

ZFS replicatio incrementalis asynchrona est ingens emendatio super methodos priorum non-snapshots fundatorum sicut rsync. In utroque casu solum data mutata transfertur - sed rsync primum debet read ex orbe data omnia utrinque ad summam reprimendam et compara. E contra, ZFS replicatio nihil aliud quam regulas arbores legit - et quaslibet caudices quae in altiore snapshot non exprimuntur.

Inaedificata pressio

Exemplar-in-scribo mechanismum etiam simplificat systematis compressionis constructum. Compressio in systematis fasciculi tradito problematica est - tam vetus versio quam nova versio notitiarum mutatarum in eodem spatio sunt.

Si particulam notitiarum in medio fasciculi spectes, qui vitam suam incipit ut megabytum cyphris ab 0x00000000 et sic porro, perfacile est eam in unam partem orbis comprimere. Sed quid fit si megabytum zerum cum megabyto incompressibili notitiarum, qualia JPEG vel pseudo-passim strepitus, substituimus? Subito megabyte notitiarum non unam, sed 256 4 KiB sectores requirere, et una tantum pars in spatio orbis illo reservabatur.

ZFS hoc problema non habet, cum tabulae mutatae semper ad insuetum spatium scribantur - truncus originalis unum tantum 4 sectorem KiB accipit, et novum scribens 256 tollet, sed hoc non problema est - fragmentum recenter mutatum e "medium" tabellae scribebatur ad spatium insolitum cujuscumque magnitudinis mutata sit necne, sic haec condicio ZFS omnino normali est.

Compressio in ZFS aedificata per defaltam debilitata est, et ratio algorithms pluggabiles praebet - nunc in LZ4, gzip (1-9), LZJB et ZLE.

  • LZ4 algorithmus profusus est qui compressionem et decompressionem valde celeriter praebet et utilitates perficiendi pro pluribus casibus usui - etiam in CPUs satis tardus.
  • All Rights Venerabilis est algorithmus quod omnes Unix utentes sciunt et amant. Expediri potest cum compressione gradus 1-9, cum ratione compressionis et CPU usu magis quam gradu appropinquantis 9. Algorithmus omnibus textibus (vel aliis valde compressis) aptior est casibus uti, sed saepe alias difficultates CPU causat - eo utere. caute praesertim ad superiora.
  • LZJB — Algorithmus originalis in ZFS. Obsoletum est neque amplius utendum est, LZ4 omni modo superior est.
  • MALE - nulla gradu modum translitterandi, Nulla Level modum translitterandi. Notitias normales omnino non tangit, sed magnas cyphrarum series comprimit. Utile notitiarum copiarum plene incompressibilium (qualia sunt JPEG, MP4 vel aliae formatae iam compressae) sicut notitias incompressibiles ignorat, sed spatium insuetum in monumentis consequentibus comprimit.

Compressionem commendamus LZ4 ad omnes fere casus usus; poena perficientur in notitia incompressibili tractans minima est, et incrementum perficientur pro more notitia significant. Effingo virtualis machinae imaginem ad novam institutionem in Fenestra systemate operante (noto inaugurato OS, nondum data intus) cum compression=lz4 Transierunt XXVII% citius quam cum compression=noneapud hoc test a MMXV.

ARC - adaptive replacement cache

ZFS sola ratio fasciculi recentioris cognoscimus illius usus mechanismo suo legere caching, quam fisus in paginae operativae cache ad exemplaria recentissima in RAM lecta caudices condo.

Etsi cella indigena non caret suis quaestionibus - ZFS respondere non potest ad destinatam memoriam novis petitionibus quam celerrime ac nucleum, ut novam vocationem. malloc() Destinatio memoriae deficiat, si RAM nunc ab ARC occupata requirat. Sed bonae causae sunt ut tuo cella, saltem nunc utaris.

Omnes notae modernae systemata operandi, in iis MacOS, Windows, Linux et BSD, LRU (minime Nuper adsuetum) algorithmum ad paginae cache deducendae utuntur. Hoc algorithmus primitivus est qui scandalum conditivorum "ad summum queue" impellit postquam singulas leges legit et cuneos pellat "ad fundum queue", ut opus esset ad novas cellas missorum addere (quae ex orbe potius quam caudices legere debuerunt. ex cache) ad cacumen.

Plerumque algorithmus subtiliter laborat, sed in systematis cum magna operando notitias ponit, LRU facile ducit ad triturandos-evincendos, saepe necessariis caudicis ut aperiendi caudices quae numquam e cella iterum legantur.

ARC algorithmus simplex multo minus est qui considerari potest cache "gravis". Quotienscumque truncus conditivus legitur, fit paulo gravior et durior ad evincendum - et etiam postquam scandalum evincitur. idolum per aliquod tempus. Truncus eiectus sed postea in cella relegendus erit etiam gravior fiet.

Ex his omnibus finis est cella cum proportione multo altiore hit — proportio inter hits (legit e cache) et missorum (ex orbe legit). Hoc statisticum maximi momenti - non solum sunt cache hits ipsi ordines magnitudinis velociores, emissiones emissiones ocius etiam ministrari possunt, cum plures cache hits sunt, pauciores petitiones orbis parallelae et inferiores latency pro reliquis Missis. quod serviendum est in disco.

conclusio,

Nunc praecipuas semanticas ZFS inteximus ut opera exemplaria scribentes, necnon relationes inter piscinas repositas, virtuales machinis, caudices, sectores et fasciculos, parati sumus ad de reali mundi effectione disserendum cum numerorum vera.

In altera parte spectabimus actualem operum speculatorum vdev et RAIDz piscinas, inter se comparatas, et etiam ad topologias Linux nuclei RAID traditas quas perspeximus. ante.

In primis solum basics - the topologias ZFS ipsas - sed posterius tegere voluimus haec Parati erimus loqui de magis provectionis configuratione et hiatu ZFS, incluso usu generum auxiliariorum vdev ut L2ARC, SLOG et Destinatio Specialis.

Source: www.habr.com

Add a comment