Después de un año de pausa en el desarrollo
LagartoFS
Para garantizar la tolerancia a fallos, los datos se dividen en réplicas, que se distribuyen en diferentes nodos con redundancia (se colocan varias copias en diferentes nodos); si los nodos o las unidades fallan, el sistema continúa funcionando sin pérdida de información y redistribuye automáticamente los datos. teniendo en cuenta los nodos restantes. Para ampliar el almacenamiento, basta con conectarle nuevos nodos sin detener el trabajo por mantenimiento (el propio sistema replica parte de los datos a nuevos servidores y equilibra el almacenamiento teniendo en cuenta los nuevos servidores). Puede hacer lo mismo para reducir el tamaño del clúster: simplemente puede desactivar el equipo obsoleto que se elimina del sistema.
Los datos y metadatos se almacenan por separado. Para su funcionamiento se recomienda instalar dos servidores de metadatos que operen en modo maestro-esclavo, así como al menos dos servidores de almacenamiento de datos (chunkserver). Además, para realizar copias de seguridad de los metadatos, se pueden utilizar servidores de registro para almacenar información sobre los cambios en los metadatos y permitirle restaurar el funcionamiento en caso de daños a todos los servidores de metadatos existentes. Cada archivo se divide en bloques (fragmentos), de hasta 64 MB de tamaño. Los bloques se distribuyen entre los servidores de almacenamiento de acuerdo con el modo de replicación seleccionado: estándar (determinación explícita del número de copias que se colocarán en diferentes nodos, incluso en relación con directorios individuales; para datos importantes se puede aumentar el número de copias, y para datos sin importancia reducidos), XOR (RAID5) y EC (RAID6).
El almacenamiento puede ampliarse hasta tamaños de petabytes. Los campos de aplicación incluyen el archivado, el almacenamiento de imágenes de máquinas virtuales, datos multimedia, copias de seguridad, el uso como DRC (Centro de recuperación de desastres) y como almacenamiento en clústeres informáticos de alto rendimiento. LizardFS proporciona una velocidad de lectura muy alta para archivos de cualquier tamaño y, al escribir, muestra un buen rendimiento al escribir archivos completos de tamaño grande y mediano, cuando no hay modificaciones constantes, trabajo intensivo con archivos abiertos y operaciones únicas con un montón de archivos pequeños.
Entre las características del FS, también se puede destacar la presencia de soporte para instantáneas, que reflejan el estado de los archivos en un momento determinado, y una implementación integrada de la "papelera de reciclaje" (los archivos no se eliminan inmediatamente y están disponibles para recuperación por algún tiempo). El acceso a una partición puede estar limitado por dirección IP o contraseña (similar a NFS). Existen mecanismos de gestión de cuotas y calidad del servicio que le permiten limitar el tamaño y el ancho de banda para determinadas categorías de usuarios. Es posible crear instalaciones de almacenamiento distribuidas geográficamente, cuyos segmentos estén ubicados en diferentes centros de datos.
El proyecto LizardFS se fundó en 2013 como una bifurcación.
El lanzamiento de LizardFS 3.13.0 está previsto para finales de diciembre. La principal innovación de LizardFS 3.13 es el uso de un algoritmo de consenso para garantizar la tolerancia a fallas (cambiando de servidor maestro en caso de falla)
Otros cambios: un nuevo cliente basado en el subsistema FUSE3, que resuelve problemas con la corrección de errores, el complemento nfs-ganesha se ha reescrito en lenguaje C. La actualización 3.13.0-rc2 corrige varios errores críticos que inutilizaban las versiones de prueba anteriores de la rama 3.13 (las correcciones para la rama 3.12 aún no se han publicado y la actualización de 3.12 a 3.13 aún provoca una pérdida completa de datos).
En 2020, el trabajo se centrará en desarrollar
El cliente LizardFS agregará soporte completo para operaciones de escritura de versiones, lo que mejorará la confiabilidad de la recuperación ante desastres, resolverá los problemas que surgen cuando diferentes clientes comparten el acceso a los mismos datos y permitirá mejoras significativas en el rendimiento. El cliente será transferido a su propio subsistema de red que opera en el espacio del usuario. Está previsto que el primer prototipo funcional de LizardFS basado en Agama esté listo en el segundo trimestre de 2020. Al mismo tiempo, prometen implementar herramientas para integrar LizardFS con la plataforma Kubernetes.
Fuente: opennet.ru