DRBD 9.2.0分佈式複制塊設備發布

分散式複製區塊裝置 DRBD 9.2.0 版本已經發布,它允許您實現類似 RAID-1 陣列的功能,該陣列由透過網路連接的不同電腦的多個磁碟組成(網路鏡像)。 該系統被設計為Linux核心的一個模組,並在GPLv2許可證下分發。 drbd 9.2.0分支可用於透明地替換drbd 9.xx,並且在協定層級、設定檔和實用程式上完全相容。

DRBD 使得將叢集節點的磁碟機組合成單一容錯儲存成為可能。 對於應用程式和系統來說,這樣的儲存看起來就像一個對所有系統都相同的區塊設備。 使用DRBD時,所有本機磁碟操作都會傳送到其他節點並與其他機器的磁碟同步。 如果一個節點發生故障,儲存將自動使用其餘節點繼續運作。 當故障節點的可用性恢復時,其狀態將自動更新。

形成儲存的叢集可能包括數十個節點,這些節點既位於本地網路上,又分佈在不同的資料中心。 這種分支儲存中的同步是使用網狀網路技術(資料沿著鏈從一個節點流到另一個節點)來執行的。 節點的複製可以以同步和非同步模式進行。 例如,本機託管節點可以使用同步複製,並且為了傳輸到遠端站點,可以使用非同步複製以及額外的流量壓縮和加密。

DRBD 9.2.0分佈式複制塊設備發布

在新版本中:

  • 減少鏡像寫入請求的延遲。 與網路堆疊的更緊密整合減少了調度程式上下文切換的數量。
  • 透過優化重新同步範圍時的鎖定,減少了應用程式 I/O 和重新同步 I/O 之間的爭用。
  • 顯著提高了使用動態儲存分配(“精簡配置”)的後端的重新同步效能。 透過組合修剪/丟棄操作,效能得到了提高,這比常規寫入作業花費的時間要長得多。
  • 增加了對網路命名空間的支持,這使得可以與 Kubernetes 集成,透過與容器關聯的單獨網路(而不是主機環境的網路)傳輸複製網路流量。
  • 新增了 Transport_rdma 模組,用作 Infiniband/RoCE 傳輸,而不是乙太網路上的 TCP/IP。 使用新的傳輸可以減少延遲、減少 CPU 負載並確保接收資料時無需進行不必要的複製操作(零複製)。

來源: opennet.ru

添加評論