Canonical представив MicroCloud, інструментарій для швидкого розгортання кластерів

Компанія Canonical оголосила про готовність інструментарію MicroCloud, що дозволяє швидко розгортати на своєму обладнанні обчислювальні кластери та хмарні системи із загальним розподіленим сховищем даних та захищеною віртуальною мережею. Інструментарій оформлений у вигляді snap-пакета, що включає компоненти, необхідні для керування роботою вузлів кластера. Комерційна технічна підтримка рішень на базі MicroCloud надається в рамках сервісу Ubuntu Pro, але ті, хто може уникнути підтримки, можуть використовувати інструментарій без обмежень. Напрацювання проекту написані мовою Go та поширюються під ліцензією AGPL 3.0.

MicroClouds за замовчуванням застосовує засоби для забезпечення стійкості до відмов, тому дозволяє створювати кластери, що налічують не менше трьох вузлів (в якості верхньої планки згадуються кластери, що включають до 50 вузлів). Програмний стек, що використовується для управління кластером, заснований на використанні системи централізованого управління контейнерами і віртуальними машинами LXD, платформи для побудови віртуальних мереж OVN (Open Virtual Network) і розподіленого відмовостійкого сховища Ceph. MicroClouds надає інструменти для автоматичного налаштування LXD, Ceph та OVN на всіх вузлах кластера.

Для визначення нових серверів у мережі, які можуть бути підключені до кластера, використовується mDNS, що дозволяє налаштувати весь кластер запустивши лише одну команду microcloud init на одному з вузлів, попередньо встановивши snap-пакети lxd, microceph, microcloud і microovn. Як основна платформа розглядається дистрибутив Ubuntu Server, але інструментарій не прив'язаний до Ubuntu і може бути використаний у будь-яких дистрибутивах, для яких доступна можливість встановлення інструментарію snap (Arch, CentOS, Fedora, Debian, openSUSE, RHEL тощо). Також можливе створення кластерів на базі систем, в яких використовується Ubuntu Core, що атомарно оновлюється.

Після запуску «microcloud init» інструментарій визначить наявність інших серверів у локальній мережі, видасть запит на додавання дисків у загальне сховище Ceph і запропонує налаштувати параметри віртуальної мережі. Для включення до складу кластера на серверах попередньо повинні бути встановлені вищезазначені пакети snap. Конфігурація кластера може бути збережена у форматі YAML для подальшого розгортання аналогічних систем. Для додавання додаткових вузлів після завершення ініціалізації можна використовувати команду microcloud add.

Загальне файлове сховище створюється з включенням реплікації та стійкості до відмови, що дозволяють у разі виходу з ладу окремих вузлів не втратити дані, завдяки зберіганню декількох екземплярів даних на різних вузлах. Для розгортання сховища на базі Ceph в кластері, крім локальних дисків, на трьох різних комп'ютерах повинні бути принаймні три окремі диски, відведені для розподіленого зберігання даних.

Після готовності кластера користувачам надається можливість запуску своїх програм, використовуючи системні контейнери або віртуальні машини, а також можливість доступу до спільного сховища Ceph та інструментарію централізованого управління на базі LXD. Для управління контейнерною інфраструктурою поверх кластера можна запустити платформу Kubernetes (редакція Microk8s). Для автентифікації користувачів віртуальних машин або контейнерів у кластері може застосовуватись OpenID Connect (OIDC) та авторизація на базі OpenFGA.

Canonical представив MicroCloud, інструментарій для швидкого розгортання кластерів

Можливе гнучке управління наданими ресурсами CPU, пам'яті та введення/виводу, прокидання в оточення USB-пристроїв, GPU та накопичувачів. Ізольовані та віртуальні оточення можуть переноситися між вузлами в режимі live-міграції та зберігатися з використанням снапшотів. Метрики про роботу кластера та лог подій можуть експортуватися для моніторингу за допомогою Prometheus та Grafana.

Крім створення робочих кластерів та приватних хмарних систем, інструментарій також придатний для швидкого проведення експериментів на системах розробників. Наприклад, MicroCloud може використовуватися для симуляції кластера на ноутбуці розробника, тестування хмарних додатків, що розвиваються, експериментів з новими технологіями або симуляції складних інфраструктур.

Джерело: opennet.ru

Додати коментар або відгук