Version de périphérique de bloc répliqué distribué DRBD 9.2.0

La version du périphérique de bloc répliqué distribué DRBD 9.2.0 a été publiée, ce qui vous permet d'implémenter quelque chose comme une matrice RAID-1 formée de plusieurs disques de différentes machines connectées sur un réseau (miroir réseau). Le système est conçu comme un module pour le noyau Linux et est distribué sous licence GPLv2. La branche drbd 9.2.0 peut être utilisée pour remplacer de manière transparente drbd 9.xx et est entièrement compatible au niveau du protocole, des fichiers de configuration et des utilitaires.

DRBD permet de combiner les disques des nœuds du cluster en un seul stockage tolérant aux pannes. Pour les applications et le système, ce stockage ressemble à un périphérique bloc identique pour tous les systèmes. Lors de l'utilisation de DRBD, toutes les opérations sur le disque local sont envoyées à d'autres nœuds et synchronisées avec les disques d'autres machines. Si un nœud tombe en panne, le stockage continuera automatiquement à fonctionner en utilisant les nœuds restants. Lorsque la disponibilité du nœud défaillant est rétablie, son état sera automatiquement mis à jour.

Le cluster qui constitue le stockage peut comprendre plusieurs dizaines de nœuds situés à la fois sur le réseau local et géographiquement répartis dans différents datacenters. La synchronisation dans de tels stockages branchés est effectuée à l'aide de technologies de réseau maillé (les données circulent le long de la chaîne de nœud en nœud). La réplication des nœuds peut être effectuée à la fois en mode synchrone et asynchrone. Par exemple, les nœuds hébergés localement peuvent utiliser la réplication synchrone, et pour le transfert vers des sites distants, la réplication asynchrone peut être utilisée avec une compression et un chiffrement supplémentaires du trafic.

Version de périphérique de bloc répliqué distribué DRBD 9.2.0

Dans la nouvelle version :

  • Latence réduite pour les demandes d'écriture en miroir. Une intégration plus étroite avec la pile réseau a réduit le nombre de changements de contexte du planificateur.
  • Réduction des conflits entre les E/S d'application et les E/S de resynchronisation en optimisant le verrouillage lors de la resynchronisation des extensions.
  • Performances de resynchronisation considérablement améliorées sur les backends qui utilisent l’allocation de stockage dynamique (« provisionnement dynamique »). Les performances ont été améliorées en combinant les opérations de découpage/suppression, qui prennent beaucoup plus de temps que les opérations d'écriture normales.
  • Ajout de la prise en charge des espaces de noms réseau, qui ont permis l'intégration à Kubernetes pour transmettre le trafic réseau de réplication via un réseau distinct associé aux conteneurs, au lieu du réseau de l'environnement hôte.
  • Ajout du module transport_rdma pour une utilisation comme transport Infiniband/RoCE au lieu de TCP/IP sur Ethernet. L'utilisation du nouveau transport vous permet de réduire les délais, de réduire la charge sur le processeur et de garantir que les données sont reçues sans opérations de copie inutiles (zéro copie).

Source: opennet.ru

Ajouter un commentaire