Efter ett år långt uppehåll i utvecklingen
ÖdlaFS
För att säkerställa feltolerans delas data upp i repliker, som är fördelade över olika noder med redundans (flera kopior placeras på olika noder); om noder eller enheter misslyckas fortsätter systemet att fungera utan förlust av information och omfördelar automatiskt datan. med hänsyn till de återstående noderna. För att utöka lagringen räcker det att ansluta nya noder till den utan att stoppa arbetet för underhåll (systemet replikerar själv en del av data till nya servrar och balanserar lagringen med hänsyn till de nya servrarna). Du kan göra samma sak för att minska storleken på klustret - du kan helt enkelt inaktivera den föråldrade utrustningen som tas bort från systemet.
Data och metadata lagras separat. För drift rekommenderas det att installera två metadataservrar som arbetar i master-slave-läge, samt minst två datalagringsservrar (chunkserver). Dessutom, för att säkerhetskopiera metadata, kan loggservrar användas för att lagra information om ändringar i metadata och låta dig återställa driften i händelse av skada på alla befintliga metadataservrar. Varje fil är uppdelad i block (bitar), upp till 64 MB i storlek. Blocken fördelas mellan lagringsservrar i enlighet med det valda replikeringsläget: standard (explicit bestämning av antalet kopior som ska placeras på olika noder, inklusive i relation till enskilda kataloger - för viktig data kan antalet kopior ökas, och för oviktig data reducerad), XOR (RAID5 ) och EC (RAID6).
Lagring kan skalas upp till petabytestorlekar. Användningsområden inkluderar arkivering, lagring av virtuella maskinbilder, multimediadata, säkerhetskopior, användning som DRC (Disaster Recovery Center) och som lagring i högpresterande datorkluster. LizardFS ger mycket hög läshastighet för filer av alla storlekar, och när du skriver visar den bra prestanda när du skriver hela stora och medelstora filer, när det inte sker någon konstant modifiering, intensivt arbete med öppna filer och engångsoperationer med en massa små filer.
Bland funktionerna i FS kan man också notera närvaron av stöd för ögonblicksbilder, vilket återspeglar filernas tillstånd vid en viss tidpunkt, och en inbyggd implementering av "papperskorgen" (filer raderas inte omedelbart och är tillgängliga för återhämtning under en tid). Åtkomst till en partition kan begränsas av IP-adress eller lösenord (liknande NFS). Det finns mekanismer för hantering av kvoter och kvalitet på tjänster som gör att du kan begränsa storleken och bandbredden för vissa kategorier av användare. Det är möjligt att skapa geografiskt fördelade lagringsanläggningar, vars segment finns i olika datacenter.
LizardFS-projektet grundades 2013 som en gaffel
LizardFS 3.13.0 är planerad att släppas i slutet av december. Den huvudsakliga innovationen i LizardFS 3.13 är användningen av en konsensusalgoritm för att säkerställa feltolerans (byte av masterserver vid fel)
Andra ändringar: en ny klient baserad på FUSE3-undersystemet, löser problem med felkorrigering, nfs-ganesha-pluginet har skrivits om till C-språk. Uppdatering 3.13.0-rc2 fixar flera kritiska buggar som gjorde tidigare testversioner av 3.13-grenen oanvändbara (fixar för 3.12-grenen har ännu inte publicerats, och uppdateringen från 3.12 till 3.13 leder fortfarande till fullständig dataförlust).
Under 2020 kommer arbetet att fokuseras på att utveckla
LizardFS-klienten kommer att lägga till fullt stöd för versionsskrivoperationer, vilket kommer att förbättra tillförlitligheten för katastrofåterställning, lösa problem som uppstår när olika klienter delar åtkomst till samma data och möjliggöra betydande prestandaförbättringar. Klienten kommer att överföras till sitt eget nätverksundersystem som arbetar i användarutrymmet. Den första fungerande prototypen av LizardFS baserad på Agama är planerad att vara klar under andra kvartalet 2020. Samtidigt lovar de att implementera verktyg för att integrera LizardFS med Kubernetes-plattformen.
Källa: opennet.ru