Lansarea dispozitivului bloc replicat distribuit DRBD 9.2.0

A fost publicată lansarea dispozitivului de bloc replicat distribuit DRBD 9.2.0, care vă permite să implementați ceva de genul unei matrice RAID-1 formată din mai multe discuri ale diferitelor mașini conectate într-o rețea (oglindire în rețea). Sistemul este conceput ca un modul pentru nucleul Linux și este distribuit sub licența GPLv2. Ramura drbd 9.2.0 poate fi folosită pentru a înlocui transparent drbd 9.xx și este pe deplin compatibilă la nivel de protocol, fișiere de configurare și utilități.

DRBD face posibilă combinarea unităților nodurilor cluster într-o singură stocare tolerantă la erori. Pentru aplicații și sistem, o astfel de stocare arată ca un dispozitiv bloc care este același pentru toate sistemele. Când utilizați DRBD, toate operațiunile locale de disc sunt trimise către alte noduri și sincronizate cu discurile altor mașini. Dacă un nod eșuează, stocarea va continua să funcționeze automat folosind nodurile rămase. Când disponibilitatea nodului eșuat este restabilită, starea acestuia va fi actualizată automat.

Clusterul care formează stocarea poate include câteva zeci de noduri situate atât în ​​rețeaua locală, cât și distribuite geografic în diferite centre de date. Sincronizarea în astfel de depozite ramificate se realizează folosind tehnologii de rețea mesh (fluxuri de date de-a lungul lanțului de la nod la nod). Replicarea nodurilor poate fi efectuată atât în ​​modul sincron, cât și în modul asincron. De exemplu, nodurile găzduite local pot folosi replicarea sincronă, iar pentru transferul către site-uri la distanță, replicarea asincronă poate fi utilizată cu compresie și criptare suplimentară a traficului.

Lansarea dispozitivului bloc replicat distribuit DRBD 9.2.0

În noua versiune:

  • Latență redusă pentru solicitările de scriere în oglindă. Integrarea mai strânsă cu stiva de rețea a redus numărul de comutări de context ale planificatorului.
  • Conflicte reduse între I/O aplicație și I/E de resincronizare prin optimizarea blocării la resincronizarea extensiilor.
  • Performanță de resincronizare îmbunătățită semnificativ pe backend-uri care utilizează alocarea dinamică a spațiului de stocare („provisionare subțire”). Performanța a fost îmbunătățită prin combinarea operațiilor de tăiere/renunțare, care durează mult mai mult decât operațiunile obișnuite de scriere.
  • S-a adăugat suport pentru spațiile de nume de rețea, care a făcut posibilă integrarea cu Kubernetes pentru a transmite traficul de rețea de replicare printr-o rețea separată asociată cu containere, în locul rețelei mediului gazdă.
  • S-a adăugat modul transport_rdma pentru utilizare ca transport Infiniband/RoCE în loc de TCP/IP prin Ethernet. Utilizarea noului transport vă permite să reduceți întârzierile, să reduceți sarcina CPU și să vă asigurați că datele sunt primite fără operații de copiere inutile (zero-copy).

Sursa: opennet.ru

Adauga un comentariu