Was Sie über Red Hat OpenShift Service Mesh wissen müssen

Der Übergang zu Kubernetes- und Linux-Infrastrukturen im Zuge der digitalen Transformation von Organisationen führt dazu, dass Anwendungen zunehmend auf der Basis von Microservices-Architekturen aufgebaut werden und dadurch sehr oft komplexe Schemata für die Weiterleitung von Anfragen zwischen Diensten erwerben.

Was Sie über Red Hat OpenShift Service Mesh wissen müssen

Mit Red Hat OpenShift Service Mesh gehen wir über das herkömmliche Routing hinaus und stellen Komponenten zur Verfolgung und Visualisierung dieser Anfragen bereit, um Serviceinteraktionen einfacher und zuverlässiger zu machen. Einführung einer speziellen logischen Steuerungsebene, des sogenannten Service Mesh Service-Mesh, vereinfacht die Konnektivität, Steuerung und Betriebsverwaltung auf der Ebene jeder einzelnen Anwendung, die auf Red Hat OpenShift, der führenden Kubernetes-Plattform der Enterprise-Klasse, bereitgestellt wird.

Red Hat OpenShift Service Mesh wird als spezieller Kubernetes-Operator angeboten, dessen Fähigkeiten in Red Hat OpenShift 4 getestet werden können hier.

Verbesserte Verfolgung, Weiterleitung und Optimierung der Kommunikation auf Anwendungs- und Serviceebene

Wenn nur Hardware-Load-Balancer, spezielle Netzwerkgeräte und andere ähnliche Lösungen verwendet werden, die in modernen IT-Umgebungen zur Norm geworden sind, ist es sehr schwierig und manchmal unmöglich, die auftretende Kommunikation auf der Service-to-Service-Ebene konsistent und einheitlich zu regulieren und zu verwalten zwischen Anwendungen und ihren Diensten. Durch die Hinzufügung einer zusätzlichen Service-Mesh-Verwaltungsebene können Containeranwendungen ihre Kommunikation mit Kubernetes im Kern der Plattform besser überwachen, weiterleiten und optimieren. Service Meshes tragen dazu bei, die Verwaltung hybrider Arbeitslasten über mehrere Standorte hinweg zu vereinfachen und eine detailliertere Kontrolle über den Speicherort der Daten zu ermöglichen. Wir hoffen, dass diese wichtige Komponente des Microservices-Technologie-Stacks mit der Veröffentlichung von OpenShift Service Mesh Unternehmen in die Lage versetzen wird, Multi-Cloud- und Hybrid-Strategien umzusetzen.

OpenShift Service Mesh basiert auf mehreren Open-Source-Projekten wie Istio, Kiali und Jaeger und bietet die Möglichkeit, Kommunikationslogik innerhalb einer Microservice-Anwendungsarchitektur zu programmieren. Dadurch können sich Entwicklungsteams voll und ganz auf die Entwicklung von Anwendungen und Diensten konzentrieren, die Geschäftsprobleme lösen.

Den Entwicklern das Leben leichter machen

Wie wir bereits geschrieben habenVor der Einführung des Service Mesh lag ein Großteil der Arbeit zur Verwaltung komplexer Interaktionen zwischen Diensten auf den Schultern der Anwendungsentwickler. Unter diesen Bedingungen benötigen sie eine ganze Reihe von Tools zur Verwaltung des Anwendungslebenszyklus, von der Überwachung der Ergebnisse der Codebereitstellung bis zur Verwaltung des Anwendungsverkehrs in der Produktion. Damit eine Anwendung erfolgreich ausgeführt werden kann, müssen alle ihre Dienste normal miteinander interagieren. Die Ablaufverfolgung gibt dem Entwickler die Möglichkeit, zu verfolgen, wie jeder Dienst mit anderen Funktionen interagiert, und hilft dabei, Engpässe zu identifizieren, die zu unnötigen Verzögerungen bei der tatsächlichen Arbeit führen.

Die Fähigkeit, die Verbindungen zwischen allen Diensten zu visualisieren und die Topologie der Interaktion zu erkennen, hilft auch, das komplexe Bild der Beziehungen zwischen Diensten besser zu verstehen. Durch die Kombination dieser leistungsstarken Funktionen innerhalb des OpenShift Service Mesh bietet Red Hat Entwicklern einen erweiterten Satz an Tools, die für die erfolgreiche Entwicklung und Bereitstellung cloudnativer Microservices erforderlich sind.

Um die Erstellung eines Service Mesh zu vereinfachen, ermöglicht Ihnen unsere Lösung die einfache Implementierung dieser Verwaltungsebene innerhalb einer vorhandenen OpenShift-Instanz mithilfe des entsprechenden Kubernetes-Operators. Dieser Operator kümmert sich um die Installation, Netzwerkintegration und Betriebsverwaltung aller erforderlichen Komponenten, sodass Sie sofort mit der Nutzung des neu erstellten Service Mesh für die Bereitstellung realer Anwendungen beginnen können.

Durch die Reduzierung der Arbeitskosten für die Implementierung und Verwaltung eines Service Mesh können Sie Anwendungskonzepte schnell erstellen und testen und verlieren bei der Entwicklung nicht die Kontrolle über die Situation. Warum warten, bis die Verwaltung der dienstübergreifenden Kommunikation zu einem echten Problem wird? OpenShift Service Mesh kann problemlos die Skalierbarkeit bereitstellen, die Sie benötigen, bevor Sie sie tatsächlich benötigen.

Die Liste der Vorteile, die OpenShift Service Mesh OpenShift-Benutzern bietet, umfasst:

  • Rückverfolgung und Überwachung (Jaeger). Die Aktivierung eines Service Mesh zur Verbesserung der Verwaltbarkeit kann mit einem gewissen Leistungsabfall einhergehen, sodass OpenShift Service Mesh ein grundlegendes Leistungsniveau messen und diese Daten dann für die anschließende Optimierung verwenden kann.
  • Visualisierung (Kiali). Eine visuelle Darstellung des Service Mesh hilft, die Topologie des Service Mesh und das Gesamtbild der Interaktion von Services zu verstehen.
  • Kubernetes Service Mesh-Betreiber. Minimiert den Verwaltungsaufwand bei der Verwaltung von Anwendungen durch die Automatisierung allgemeiner Aufgaben wie Installation, Wartung und Service-Lifecycle-Management. Durch das Hinzufügen von Geschäftslogik können Sie die Verwaltung weiter vereinfachen und die Einführung neuer Funktionen in der Produktion beschleunigen. Der OpenShift Service Mesh-Betreiber stellt Istio-, Kiali- und Jaeger-Pakete mit Konfigurationslogik bereit, die alle erforderlichen Funktionen auf einmal implementiert.
  • Unterstützung für mehrere Netzwerkschnittstellen (Multus). OpenShift Service Mesh eliminiert manuelle Schritte und gibt dem Entwickler die Möglichkeit, Code im erweiterten Sicherheitsmodus mithilfe von SCC (Security Context Constraint) auszuführen. Insbesondere sorgt es für eine zusätzliche Isolierung von Workloads im Cluster. Beispielsweise kann ein Namespace angeben, welche Workloads als Root ausgeführt werden können und welche nicht. Dadurch ist es möglich, die von Entwicklern stark nachgefragten Vorteile von Istio mit den gut geschriebenen Sicherheitsmaßnahmen zu kombinieren, die Cluster-Administratoren benötigen.
  • Integration mit Red Hat 3scale API Management. Für Entwickler oder IT-Betreiber, die eine erhöhte Sicherheit beim Zugriff auf Service-APIs benötigen, bietet OpenShift Service Mesh eine native Red Hat 3scale Istio Mixer Adapter-Komponente, die es Ihnen im Gegensatz zu einem Service Mesh ermöglicht, die Kommunikation zwischen Diensten auf API-Ebene zu steuern.

Was Sie über Red Hat OpenShift Service Mesh wissen müssen
Bezüglich der Weiterentwicklung der Service-Mesh-Technologien gab Red Hat Anfang dieses Jahres seine Beteiligung an dem Industrieprojekt bekannt Service Mesh-Schnittstelle (SMI), das darauf abzielt, die Interoperabilität dieser von verschiedenen Anbietern angebotenen Technologien zu verbessern. Die Zusammenarbeit an diesem Projekt wird uns dabei helfen, Red Hat OpenShift-Benutzern eine größere und flexiblere Auswahl zu bieten und eine neue Ära einzuläuten, in der wir Entwicklern NoOps-Umgebungen anbieten können.

Probieren Sie OpenShift aus

Service-Mesh-Technologien tragen dazu bei, die Verwendung von Microservice-Stacks in einer Hybrid Cloud erheblich zu vereinfachen. Deshalb ermutigen wir alle, die Kubernetes und Container aktiv nutzen, dazu Probieren Sie Red Hat OpenShift Service Mesh aus.

Source: habr.com

Kommentar hinzufügen