Sortie de Proxmox VE 7.4, un kit de distribution pour organiser le travail des serveurs virtuels

Proxmox Virtual Environment 7.4, une distribution Linux spécialisée basée sur Debian GNU/Linux, destinée au déploiement et à la maintenance de serveurs virtuels utilisant LXC et KVM, et capable de remplacer des produits tels que VMware vSphere, Microsoft Hyper-V et Citrix, a été libéré hyperviseur. La taille de l’image iso d’installation est de 1.1 Go.

Proxmox VE fournit les moyens de déployer un système de serveur virtuel de qualité industrielle clé en main, basé sur le Web, pour gérer des centaines, voire des milliers de machines virtuelles. La distribution dispose d'outils intégrés pour organiser les sauvegardes d'environnements virtuels et la prise en charge de la mise en cluster prête à l'emploi, y compris la possibilité de migrer des environnements virtuels d'un nœud à un autre sans interrompre le travail. Parmi les fonctionnalités de l'interface Web : prise en charge de la console VNC sécurisée ; contrôle d'accès à tous les objets disponibles (VM, stockage, nœuds, etc.) en fonction des rôles ; prise en charge de divers mécanismes d'authentification (MS ADS, LDAP, Linux PAM, authentification Proxmox VE).

Dans la nouvelle version :

  • Améliorations de l'interface Web :
    • La possibilité d'activer un thème sombre a été implémentée.
    • Dans l'arborescence des ressources, les invités peuvent désormais être triés par nom plutôt que simplement par VMID.
    • L'interface Web et l'API fournissent des informations détaillées sur Ceph OSD (Object Storage Daemon).
    • Ajout de la possibilité de télécharger les journaux d'exécution des tâches sous forme de fichiers texte.
    • La possibilité de modifier les tâches liées à la sauvegarde a été étendue.
    • La prise en charge a été fournie pour l'ajout de types de stockage local hébergés sur d'autres nœuds de cluster.
    • Une interface de sélection de nœud a été ajoutée à l'assistant d'ajout de stockage pour les stockages basés sur ZFS, LVM et LVM-Thin.
    • Le transfert automatique des connexions HTTP vers HTTPS est fourni.
    • Traduction améliorée de l'interface en russe.
  • Poursuite du développement du planificateur de ressources du cluster (CRS, Cluster Resource Scheduling), qui recherche de nouveaux nœuds nécessaires pour assurer la haute disponibilité. La nouvelle version ajoute la possibilité de rééquilibrer automatiquement les machines virtuelles et les conteneurs au démarrage, et pas seulement lors de la récupération.
  • Une commande CRM a été ajoutée au High Availability Manager (HA Manager) pour placer manuellement un nœud actif en mode maintenance sans nécessiter de redémarrage. En préparation de la mise en œuvre d'un système de planification de charge dynamique dans le cluster, les ressources (CPU, mémoire) des différents services HA (machines virtuelles, conteneurs) ont été unifiées.
  • Une option « content-dirs » a été ajoutée au référentiel pour remplacer le type de contenu dans certains sous-répertoires (par exemple, images iso, modèles de conteneurs, sauvegardes, disques invités, etc.).
  • Le calcul des ACL a été retravaillé et les performances de traitement des règles de contrôle d'accès ont été considérablement améliorées sur les systèmes comportant un très grand nombre d'utilisateurs ou des ACL volumineuses.
  • Il est possible de désactiver la notification des mises à jour des packages.
  • L'image ISO d'installation offre la possibilité de sélectionner un fuseau horaire pendant le processus d'installation pour simplifier la synchronisation d'hôtes ou de clusters géographiquement séparés.
  • La prise en charge des architectures riscv32 et riscv64 a été ajoutée aux conteneurs LXC.
  • Versions système mises à jour dans les modèles de conteneurs pour l'architecture amd64.
  • La synchronisation avec la base de données du paquet Debian 11.6 est terminée. Le noyau Linux par défaut est la version 5.15, la version 6.2 étant disponible en option. Mise à jour de QEMU 7.2, LXC 5.0.2, ZFS 2.1.9, Ceph Quincy 17.2.5, Ceph Pacific 16.2.11.

Source: opennet.ru

Ajouter un commentaire