Frigivning av den distribuerade replikerade blockenheten DRBD 9.2.0

Utgivningen av den distribuerade replikerade blockenheten DRBD 9.2.0 har publicerats, som låter dig implementera något som en RAID-1-array bildad av flera diskar från olika maskiner anslutna över ett nätverk (nätverksspegling). Systemet är designat som en modul för Linux-kärnan och distribueras under GPLv2-licensen. Drbd 9.2.0-grenen kan användas för att transparent ersätta drbd 9.xx och är helt kompatibel på protokollnivå, konfigurationsfiler och verktyg.

DRBD gör det möjligt att kombinera enheterna i klusternoder till en enda feltolerant lagring. För applikationer och systemet ser sådan lagring ut som en blockenhet som är densamma för alla system. När du använder DRBD skickas alla lokala diskoperationer till andra noder och synkroniseras med diskarna på andra maskiner. Om en nod misslyckas kommer lagringen automatiskt att fortsätta att fungera med de återstående noderna. När tillgängligheten för den misslyckade noden återställs kommer dess tillstånd automatiskt att uppdateras.

Klustret som utgör lagringen kan innehålla flera dussin noder som finns både på det lokala nätverket och geografiskt fördelade i olika datacenter. Synkronisering i sådana förgrenade lagringar utförs med hjälp av mesh-nätverksteknologier (dataflöden längs kedjan från nod till nod). Replikering av noder kan utföras både i synkront och asynkront läge. Till exempel kan lokalt värdade noder använda synkron replikering, och för överföring till fjärrplatser kan asynkron replikering användas med ytterligare komprimering och kryptering av trafik.

Frigivning av den distribuerade replikerade blockenheten DRBD 9.2.0

I den nya utgåvan:

  • Minskad latens för speglade skrivförfrågningar. Tätare integration med nätverksstacken har minskat antalet kontextväxlar för schemaläggning.
  • Minskad konflikt mellan applikations-I/O och omsynkroniserings-I/O genom att optimera låsningen vid omsynkronisering av omfång.
  • Avsevärt förbättrad omsynkroniseringsprestanda på backends som använder dynamisk lagringstilldelning ("tunn provisionering"). Prestanda förbättrades genom att kombinera trim/kassera operationer, som tar mycket längre tid än vanliga skrivoperationer.
  • Lade till stöd för nätverksnamnområden, vilket gjorde det möjligt att integrera med Kubernetes för att överföra replikeringsnätverkstrafik genom ett separat nätverk som är associerat med behållare, istället för värdmiljöns nätverk.
  • Tillagd transport_rdma-modul för användning som Infiniband/RoCE-transport istället för TCP/IP över Ethernet. Genom att använda den nya transporten kan du minska förseningar, minska belastningen på CPU:n och säkerställa att data tas emot utan onödiga kopieringsoperationer (nollkopia).

Källa: opennet.ru

Lägg en kommentar