Na een jaarlange ontwikkelingsstilte
HagedisFS
Om fouttolerantie te garanderen, worden de gegevens opgedeeld in replica's, die met redundantie over verschillende knooppunten worden verdeeld (meerdere kopieën worden op verschillende knooppunten geplaatst); als knooppunten of schijven uitvallen, blijft het systeem werken zonder verlies van informatie en worden de gegevens automatisch opnieuw gedistribueerd rekening houdend met de resterende knooppunten. Om de opslag uit te breiden, volstaat het om er nieuwe knooppunten op aan te sluiten zonder het werk voor onderhoud te onderbreken (het systeem repliceert zelf een deel van de gegevens naar nieuwe servers en balanceert de opslag, rekening houdend met de nieuwe servers). U kunt hetzelfde doen om de omvang van het cluster te verkleinen: u kunt eenvoudigweg de verouderde apparatuur uitschakelen die uit het systeem wordt verwijderd.
Gegevens en metadata worden afzonderlijk opgeslagen. Voor de werking wordt aanbevolen om twee metadataservers te installeren die in master-slave-modus werken, evenals minstens twee servers voor gegevensopslag (chunkserver). Bovendien kunnen logservers worden gebruikt om een back-up te maken van metagegevens, informatie over wijzigingen in de metagegevens op te slaan en de werking te kunnen herstellen in geval van schade aan alle bestaande metagegevensservers. Elk bestand is verdeeld in blokken (chunks) van maximaal 64 MB groot. Blokken worden verdeeld over opslagservers in overeenstemming met de geselecteerde replicatiemodus: standaard (expliciete bepaling van het aantal kopieën dat op verschillende knooppunten moet worden geplaatst, ook met betrekking tot individuele mappen - voor belangrijke gegevens kan het aantal kopieën worden verhoogd, en voor onbelangrijke gegevens verminderd), XOR (RAID5) en EC (RAID6).
Opslag kan worden opgeschaald tot petabytes. Toepassingsgebieden zijn onder meer archivering, opslag van afbeeldingen van virtuele machines, multimediagegevens, back-ups, gebruik als DRC (Disaster Recovery Center) en als opslag in krachtige computerclusters. LizardFS biedt een zeer hoge leessnelheid voor bestanden van elke grootte, en bij het schrijven vertoont het goede prestaties bij het schrijven van hele grote en middelgrote bestanden, wanneer er geen constante wijziging is, intensief werken met geopende bestanden en eenmalige bewerkingen met een een hoop kleine bestanden.
Onder de kenmerken van de FS valt ook de aanwezigheid op van ondersteuning voor snapshots, die de status van bestanden op een bepaald moment weerspiegelen, en een ingebouwde implementatie van de "prullenbak" (bestanden worden niet onmiddellijk verwijderd en zijn beschikbaar voor herstel enige tijd). De toegang tot een partitie kan worden beperkt door een IP-adres of wachtwoord (vergelijkbaar met NFS). Er zijn mechanismen voor quota- en servicekwaliteitsbeheer waarmee u de omvang en bandbreedte voor bepaalde categorieën gebruikers kunt beperken. Het is mogelijk om geografisch verspreide opslagfaciliteiten te creëren, waarvan de segmenten zich in verschillende datacenters bevinden.
Het LizardFS-project werd in 2013 opgericht als een fork
LizardFS 3.13.0 zal naar verwachting eind december uitkomen. De belangrijkste innovatie van LizardFS 3.13 is het gebruik van een consensusalgoritme om fouttolerantie te garanderen (het wisselen van masterserver in geval van een storing)
Andere veranderingen: een nieuwe client gebaseerd op het FUSE3-subsysteem, die problemen met foutcorrectie oplost, de nfs-ganesha-plug-in is herschreven in C-taal. Update 3.13.0-rc2 repareert verschillende kritieke bugs die eerdere testversies van de 3.13-tak onbruikbaar maakten (oplossingen voor de 3.12-tak zijn nog niet gepubliceerd en de update van 3.12 naar 3.13 leidt nog steeds tot volledig gegevensverlies).
In 2020 zal de nadruk liggen op ontwikkeling
De LizardFS-client zal volledige ondersteuning toevoegen voor schrijfbewerkingen op versiebeheer, wat de betrouwbaarheid van noodherstel zal verbeteren, problemen zal oplossen die ontstaan wanneer verschillende clients toegang tot dezelfde gegevens delen, en aanzienlijke prestatieverbeteringen mogelijk zal maken. De client wordt overgebracht naar zijn eigen netwerksubsysteem dat in de gebruikersruimte werkt. Het eerste werkende prototype van LizardFS op basis van Agama zal naar verwachting in het tweede kwartaal van 2020 gereed zijn. Tegelijkertijd beloven ze tools te implementeren voor de integratie van LizardFS met het Kubernetes-platform.
Bron: opennet.ru