ʻO DRBD 9.2.0 i hoʻokuʻu ʻia i ka hoʻokuʻu ʻia ʻana o nā mea hana poloka

Опубликован релиз распределенного реплицируемого блочного устройства DRBD 9.2.0, позволяющего реализовать подобие массива RAID-1, сформированного из объединённых по сети нескольких дисков разных машин (зеркалирование по сети). Система оформлена в виде модуля для ядра Linux и распространяется под лицензией GPLv2. Ветка drbd 9.2.0 может использоваться для прозрачной замены drbd 9.x.x и полностью совместима на уровне протокола, файлов конфигурации и утилит.

DRBD даёт возможность объединить накопители узлов кластера в единое отказоустойчивое хранилище. Для приложений и системы такое хранилище выглядит как одинаковое для всех систем блочное устройство. При использовании DRBD все операции с локальным диском отправляются на другие узлы и синхронизируются с дисками других машин. В случае выхода из строя одного узла, хранилище автоматически продолжит работу за счёт оставшихся узлов. При возобновлении доступности сбойного узла, его состояние будет автоматически доведено до актуального вида.

Hiki ke hoʻokomo ʻia nā puʻupuʻu i hoʻopaʻa ʻia i loko o ka pūnaewele kūloko a i hoʻopuehu ʻia i nā kikowaena ʻikepili like ʻole. Hoʻohana ʻia ka hoʻonohonoho ʻana i loko o ia mau waihona lālā me ka hoʻohana ʻana i nā ʻenehana mesh-network. Hiki ke hoʻopili hou ʻia nā nodes me ka synchronously a me ka asynchronously. No ka laʻana, hiki ke hoʻohana i nā node i hoʻokipa ʻia ma ka ʻāina ke hoʻohana i ka replication synchronous, a no nā pūnaewele hoʻokipa mamao, hiki ke hoʻohana ʻia ka hoʻopiʻi asynchronous me ka hoʻopiʻi hou a me ka hoʻopili ʻana.

ʻO DRBD 9.2.0 i hoʻokuʻu ʻia i ka hoʻokuʻu ʻia ʻana o nā mea hana poloka

I ka hoʻokuʻu hou:

  • Снижены задержки для зеркалируемых запросов на запись. Более плотная интеграция с сетевым стеком позволила снизить число переключений контекста планировщика.
  • Снижена конкуренция между вводом/выводом приложений и вводом/выводом ресинхронизации за счёт оптимизации блокировок при ресинхронизации экстентов.
  • Значительно повышена производительность ресинхронизации на бэкендах, в которых применяется динамическое выделение места в хранилище («thin provisioning»). Производительность удалось поднять благодаря объединению операций trim/discard, которые выполняются значительно дольше обычных операций записи.
  • Добавлена поддержка сетевых пространств имён (network namespaces), которая позволила реализовать возможность интеграции с Kubernetes для передачи сетевого трафика репликаций через привязанную к контейнерам отдельную сеть, вместо сети хост-окружения.
  • Добавлен модуль transport_rdma для использования в качестве транспорта Infiniband/RoCE вместо TCP/IP поверх Ethernet. Использование нового транспорта позволяет снизить задержки, уменьшить нагрузку на CPU и обеспечить получение данных без лишних операций копирования (zero-copy).

Source: opennet.ru

Pākuʻi i ka manaʻo hoʻopuka