Situation: Virtuelle GPUs sind Hardwarelösungen in ihrer Leistung nicht unterlegen

Im Februar veranstaltete Stanford eine Konferenz zum Thema Hochleistungsrechnen (HPC). VMware-Vertreter sagten, dass ein System, das auf einem modifizierten ESXi-Hypervisor basiert, bei der Arbeit mit einer GPU in der Geschwindigkeit Bare-Metal-Lösungen in nichts nachsteht.

Wir sprechen über die Technologien, die dies ermöglicht haben.

Situation: Virtuelle GPUs sind Hardwarelösungen in ihrer Leistung nicht unterlegen
/ Foto Victorgrigas CC BY-SA

Leistungsproblem

Laut Analysten entfallen etwa 70 % der Arbeitslasten auf Rechenzentren virtualisiert. Die restlichen 30 % laufen jedoch immer noch auf Bare-Metal ohne Hypervisoren. Diese 30 % bestehen hauptsächlich aus Hochlastanwendungen, beispielsweise im Zusammenhang mit dem Training neuronaler Netze und der Verwendung von GPUs.

Experten erklären diesen Trend damit, dass der Hypervisor als zwischengeschaltete Abstraktionsschicht Auswirkungen auf die Leistung des gesamten Systems haben kann. Im Studium vor fünf Jahren Sie können die Daten finden über die Reduzierung der Arbeitsgeschwindigkeit um 10 %. Unternehmen und Rechenzentrumsbetreiber haben es daher nicht eilig, HPC-Workloads in eine virtuelle Umgebung zu verlagern.

Aber Virtualisierungstechnologien entwickeln und verbessern sich. Auf einer Konferenz vor einem Monat sagte VMware, dass der ESXi-Hypervisor keinen negativen Einfluss auf die GPU-Leistung habe. Die Rechengeschwindigkeit kann um drei Prozent reduziert werden, was mit Bare Metal vergleichbar ist.

Wie funktioniert das

Um die Leistung von HPC-Systemen mit GPUs zu verbessern, hat VMware eine Reihe von Änderungen am Hypervisor vorgenommen. Insbesondere wurde die vMotion-Funktion abgeschafft. Es wird für den Lastausgleich benötigt und überträgt normalerweise virtuelle Maschinen (VMs) zwischen Servern oder GPUs. Das Deaktivieren von vMotion führte dazu, dass jeder VM nun eine bestimmte GPU zugewiesen wurde. Dies trug dazu bei, die Kosten beim Datenaustausch zu senken.

Eine weitere Schlüsselkomponente des Systems ist Technologie DirectPath-E/A. Es ermöglicht dem CUDA-Parallel-Computing-Treiber die direkte Interaktion mit virtuellen Maschinen unter Umgehung des Hypervisors. Wenn Sie mehrere VMs gleichzeitig auf einer GPU ausführen müssen, kommt die GRID vGPU-Lösung zum Einsatz. Es unterteilt den Speicher der Karte in mehrere Segmente (die Rechenzyklen werden jedoch nicht unterteilt).

Das Betriebsdiagramm zweier virtueller Maschinen sieht in diesem Fall folgendermaßen aus:

Situation: Virtuelle GPUs sind Hardwarelösungen in ihrer Leistung nicht unterlegen

Ergebnisse und Prognosen

Unternehmen Tests durchgeführt Hypervisor durch Training eines Sprachmodells basierend auf TensorFlow. Der Leistungs-„Schaden“ betrug im Vergleich zu Bare-Metal nur 3–4 %. Im Gegenzug war das System in der Lage, Ressourcen je nach aktueller Auslastung bedarfsgerecht zu verteilen.

Auch der IT-Riese Tests durchgeführt mit Behältern. Die Ingenieure des Unternehmens haben neuronale Netze darauf trainiert, Bilder zu erkennen. Gleichzeitig wurden die Ressourcen einer GPU auf vier Container-VMs verteilt. Dadurch sank die Leistung einzelner Maschinen um 17 % (im Vergleich zu einer einzelnen VM mit vollem Zugriff auf GPU-Ressourcen). Allerdings ist die Anzahl der pro Sekunde verarbeiteten Bilder hat zugenommen drei Mal. Es wird erwartet, dass solche Systeme werde finden Anwendungen in der Datenanalyse und Computermodellierung.

Zu den potenziellen Problemen, mit denen VMware konfrontiert sein könnte, zählen Experten emittieren eher enge Zielgruppe. Eine kleine Anzahl von Unternehmen arbeitet noch immer mit Hochleistungssystemen. Obwohl in Statista notedass bis 2021 94 % der Rechenzentrums-Workloads weltweit virtualisiert sein werden. Von projiziert Laut Analysten wird der Wert des HPC-Marktes im Zeitraum 32 bis 45 von 2017 auf 2022 Milliarden Dollar wachsen.

Situation: Virtuelle GPUs sind Hardwarelösungen in ihrer Leistung nicht unterlegen
/ Foto Globaler Zugangspunkt PD

Ähnliche Lösungen

Auf dem Markt gibt es mehrere Analoga, die von großen IT-Unternehmen entwickelt werden: AMD und Intel.

Das erste Unternehmen für GPU-Virtualisierung bietet Ansatz basierend auf SR-IOV (Single-Root Input/Output Virtualization). Diese Technologie ermöglicht der VM Zugriff auf einen Teil der Hardwarefunktionen des Systems. Die Lösung ermöglicht die gemeinsame Nutzung der GPU durch 16 Benutzer bei gleicher Leistung virtualisierter Systeme.

Was den zweiten IT-Riesen betrifft, sie technologiebasiert auf dem Hypervisor Citrix XenServer 7. Es kombiniert die Arbeit eines Standard-GPU-Treibers und einer virtuellen Maschine, wodurch letztere 3D-Anwendungen und Desktops auf den Geräten von Hunderten von Benutzern anzeigen kann.

Zukunft der Technologie

Entwickler virtueller GPUs eine Wette schließen über die Implementierung von KI-Systemen und die wachsende Beliebtheit leistungsstarker Lösungen im Markt für Geschäftstechnologie. Sie hoffen, dass die Notwendigkeit, große Datenmengen zu verarbeiten, die Nachfrage nach vGPUs erhöhen wird.

Jetzt Hersteller auf der Suche nach einem Weg Kombinieren Sie die Funktionalität von CPU und GPU in einem Kern, um die Lösung von Grafikproblemen, die Durchführung mathematischer Berechnungen, logische Operationen und die Datenverarbeitung zu beschleunigen. Das Erscheinen solcher Kerne auf dem Markt wird in Zukunft den Ansatz zur Ressourcenvirtualisierung und deren Verteilung zwischen Workloads in virtuellen und Cloud-Umgebungen verändern.

Was Sie zum Thema in unserem Unternehmensblog lesen können:

Ein paar Beiträge von unserem Telegram-Kanal:

Source: habr.com

Kommentar hinzufügen