Après une année d'accalmie dans le développement
LézardFS
Pour garantir la tolérance aux pannes, les données sont divisées en répliques, qui sont réparties sur différents nœuds avec redondance (plusieurs copies sont placées sur différents nœuds) ; en cas de panne de nœuds ou de disques, le système continue de fonctionner sans perte d'informations et redistribue automatiquement les données. en tenant compte des nœuds restants. Pour étendre le stockage, il suffit d'y connecter de nouveaux nœuds sans arrêter les travaux de maintenance (le système lui-même réplique une partie des données sur de nouveaux serveurs et équilibre le stockage en tenant compte des nouveaux serveurs). Vous pouvez faire de même pour réduire la taille du cluster - vous pouvez simplement désactiver l'équipement obsolète qui est supprimé du système.
Les données et métadonnées sont stockées séparément. Pour le fonctionnement, il est recommandé d'installer deux serveurs de métadonnées fonctionnant en mode maître-esclave, ainsi qu'au moins deux serveurs de stockage de données (chunkserver). De plus, pour sauvegarder les métadonnées, les serveurs de journaux peuvent être utilisés pour stocker des informations sur les modifications des métadonnées et vous permettre de restaurer le fonctionnement en cas de dommages à tous les serveurs de métadonnées existants. Chaque fichier est divisé en blocs (morceaux), d'une taille maximale de 64 Mo. Les blocs sont répartis entre les serveurs de stockage selon le mode de réplication sélectionné : standard (détermination explicite du nombre de copies à placer sur différents nœuds, y compris par rapport aux répertoires individuels - pour les données importantes, le nombre de copies peut être augmenté, et pour données sans importance réduites), XOR (RAID5 ) et EC (RAID6).
Le stockage peut atteindre des tailles de pétaoctets. Les domaines d'application incluent l'archivage, le stockage d'images de machines virtuelles, de données multimédia, les sauvegardes, l'utilisation comme DRC (Disaster Recovery Center) et comme stockage dans des clusters de calcul hautes performances. LizardFS offre une vitesse de lecture très élevée pour les fichiers de toute taille, et lors de l'écriture, il affiche de bonnes performances lors de l'écriture de fichiers entiers de grande et moyenne taille, lorsqu'il n'y a pas de modification constante, de travail intensif avec des fichiers ouverts et d'opérations ponctuelles avec un un tas de petits fichiers.
Parmi les fonctionnalités du FS, on peut également noter la présence du support des instantanés, reflétant l'état des fichiers à un certain moment, et une implémentation intégrée de la « corbeille » (les fichiers ne sont pas supprimés immédiatement et sont disponibles pour récupération pendant un certain temps). L'accès à une partition peut être limité par une adresse IP ou un mot de passe (similaire à NFS). Il existe des mécanismes de gestion des quotas et de la qualité de service qui permettent de limiter la taille et la bande passante pour certaines catégories d'utilisateurs. Il est possible de créer des installations de stockage géographiquement réparties, dont les segments sont situés dans différents centres de données.
Le projet LizardFS a été fondé en 2013 en tant que fork
LizardFS 3.13.0 devrait sortir fin décembre. La principale innovation de LizardFS 3.13 est l'utilisation d'un algorithme de consensus pour assurer la tolérance aux pannes (changement de serveur maître en cas de panne)
Autres changements : un nouveau client basé sur le sous-système FUSE3, résolvant les problèmes de correction d'erreurs, le plugin nfs-ganesha a été réécrit en langage C. La mise à jour 3.13.0-rc2 corrige plusieurs bugs critiques qui rendaient inutilisables les versions de test précédentes de la branche 3.13 (les correctifs pour la branche 3.12 n'ont pas encore été publiés et la mise à jour de 3.12 à 3.13 entraîne toujours une perte complète de données).
En 2020, les travaux se concentreront sur le développement
Le client LizardFS ajoutera une prise en charge complète des opérations d'écriture de versionnage, ce qui améliorera la fiabilité de la reprise après sinistre, résoudra les problèmes qui surviennent lorsque différents clients partagent l'accès aux mêmes données et permettra des améliorations significatives des performances. Le client sera transféré vers son propre sous-système réseau fonctionnant dans l'espace utilisateur. Le premier prototype fonctionnel de LizardFS basé sur Agama devrait être prêt au deuxième trimestre 2020. Dans le même temps, ils promettent de mettre en œuvre des outils pour intégrer LizardFS à la plateforme Kubernetes.
Source: opennet.ru