Utgivelse av den distribuerte replikerte blokkenheten DRBD 9.2.0

Utgivelsen av den distribuerte replikerte blokkeringsenheten DRBD 9.2.0 har blitt publisert, som lar deg implementere noe som en RAID-1-array dannet av flere disker på forskjellige maskiner koblet over et nettverk (nettverksspeiling). Systemet er designet som en modul for Linux-kjernen og distribueres under GPLv2-lisensen. Drbd 9.2.0-grenen kan brukes til å erstatte drbd 9.xx på en transparent måte og er fullt kompatibel på protokollnivå, konfigurasjonsfiler og verktøy.

DRBD gjør det mulig å kombinere stasjonene til klyngenoder til en enkelt feiltolerant lagring. For applikasjoner og systemet ser slik lagring ut som en blokkenhet som er lik for alle systemer. Når du bruker DRBD, sendes alle lokale diskoperasjoner til andre noder og synkroniseres med diskene til andre maskiner. Hvis en node svikter, vil lagringen automatisk fortsette å operere med de resterende nodene. Når tilgjengeligheten til den mislykkede noden gjenopprettes, vil dens tilstand automatisk bli oppdatert.

Klyngen som danner lagringen kan omfatte flere dusin noder lokalisert både på det lokale nettverket og geografisk fordelt i forskjellige datasentre. Synkronisering i slike forgrenede lagringer utføres ved hjelp av mesh-nettverksteknologier (data flyter langs kjeden fra node til node). Replikering av noder kan utføres både i synkron og asynkron modus. For eksempel kan lokalt hostede noder bruke synkron replikering, og for overføring til eksterne nettsteder kan asynkron replikering brukes med ekstra komprimering og kryptering av trafikk.

Utgivelse av den distribuerte replikerte blokkenheten DRBD 9.2.0

I den nye utgivelsen:

  • Redusert ventetid for speilvendte skriveforespørsler. Tettere integrasjon med nettverksstabelen har redusert antallet planleggerkontekstsvitsjer.
  • Redusert konflikt mellom applikasjons-I/O og resynkroniserings-I/O ved å optimalisere låsing ved resynkronisering av omfang.
  • Betydelig forbedret resynkroniseringsytelse på backends som bruker dynamisk lagringstildeling ("tynt klargjøring"). Ytelsen ble forbedret ved å kombinere trim/kast-operasjoner, som tar mye lengre tid enn vanlige skriveoperasjoner.
  • Lagt til støtte for nettverksnavneområder, som gjorde det mulig å integrere med Kubernetes for å overføre replikeringsnettverkstrafikk gjennom et eget nettverk knyttet til containere, i stedet for nettverket til vertsmiljøet.
  • Lagt til transport_rdma-modul for bruk som Infiniband/RoCE-transport i stedet for TCP/IP over Ethernet. Ved å bruke den nye transporten kan du redusere forsinkelser, redusere belastningen på CPU og sikre at data mottas uten unødvendige kopieringsoperasjoner (nullkopi).

Kilde: opennet.ru

Legg til en kommentar