Release van het gedistribueerde gerepliceerde blokapparaat DRBD 9.2.0

De release van het gedistribueerde gerepliceerde blokapparaat DRBD 9.2.0 is gepubliceerd, waarmee u zoiets als een RAID-1-array kunt implementeren die is gevormd uit verschillende schijven van verschillende machines die via een netwerk zijn verbonden (netwerkspiegeling). Het systeem is ontworpen als module voor de Linux-kernel en wordt gedistribueerd onder de GPLv2-licentie. De drbd 9.2.0 branch kan worden gebruikt om op transparante wijze drbd 9.xx te vervangen en is volledig compatibel op protocolniveau, configuratiebestanden en hulpprogramma's.

DRBD maakt het mogelijk om de schijven van clusterknooppunten te combineren in één fouttolerante opslag. Voor applicaties en het systeem ziet een dergelijke opslag eruit als een blokapparaat dat voor alle systemen hetzelfde is. Bij gebruik van DRBD worden alle lokale schijfbewerkingen naar andere knooppunten verzonden en gesynchroniseerd met de schijven van andere machines. Als één knooppunt uitvalt, blijft de opslag automatisch werken met behulp van de overige knooppunten. Wanneer de beschikbaarheid van het defecte knooppunt wordt hersteld, wordt de status ervan automatisch bijgewerkt.

Het cluster dat de opslag vormt, kan enkele tientallen knooppunten omvatten die zich zowel op het lokale netwerk bevinden als geografisch verspreid zijn over verschillende datacenters. Synchronisatie in dergelijke vertakte opslagplaatsen wordt uitgevoerd met behulp van mesh-netwerktechnologieën (gegevens stromen langs de keten van knooppunt naar knooppunt). Replicatie van knooppunten kan zowel in synchrone als in asynchrone modus worden uitgevoerd. Lokaal gehoste knooppunten kunnen bijvoorbeeld synchrone replicatie gebruiken, en voor overdracht naar externe sites kan asynchrone replicatie worden gebruikt met extra compressie en codering van verkeer.

Release van het gedistribueerde gerepliceerde blokapparaat DRBD 9.2.0

In de nieuwe uitgave:

  • Verminderde latentie voor gespiegelde schrijfaanvragen. Nauwere integratie met de netwerkstack heeft het aantal plannercontextschakelaars verminderd.
  • Minder conflicten tussen toepassings-I/O en hersynchronisatie-I/O door het optimaliseren van de vergrendeling bij het opnieuw synchroniseren van gebieden.
  • Aanzienlijk verbeterde hersynchronisatieprestaties op backends die gebruik maken van dynamische opslagtoewijzing (“thin provisioning”). De prestaties zijn verbeterd door het combineren van trim-/weggooibewerkingen, die veel langer duren dan gewone schrijfbewerkingen.
  • Ondersteuning toegevoegd voor netwerknaamruimten, waardoor integratie met Kubernetes mogelijk werd om replicatienetwerkverkeer te verzenden via een afzonderlijk netwerk dat is gekoppeld aan containers, in plaats van het netwerk van de hostomgeving.
  • Transport_rdma-module toegevoegd voor gebruik als Infiniband/RoCE-transport in plaats van TCP/IP via Ethernet. Door het nieuwe transport te gebruiken, kunt u vertragingen verminderen, de belasting van de CPU verminderen en ervoor zorgen dat gegevens worden ontvangen zonder onnodige kopieerbewerkingen (zero-copy).

Bron: opennet.ru

Voeg een reactie