
Ab Februar Uns kommt es vor, als sei eine Ewigkeit vergangen. Das Einzige, was die Trennung ein wenig aufhellte, war, dass wir es geschafft haben, der Cloud Native Computing Foundation beizutreten, unsere Kubernetes-Distribution im Rahmen des Certified Kubernetes Conformance Program zu zertifizieren und sie auch im Dienst zu starten seine Implementierung von Kubernetes Cluster Autoscaler.
Es ist Zeit für das dritte @Kubernetes-Meetup! Knapp:
- Die Gazprombank wird Ihnen erzählen, wie sie Kubernetes in ihrer Forschung und Entwicklung zur Verwaltung von OpenStack einsetzen;
- Mail.ru Cloud Solutions – wie man Anwendungen in K8S mithilfe von Scalern skaliert und wie sie ihre Implementierung von Kubernetes Cluster Autoscaler vorbereitet haben;
- und die Agentur Wunderman Thompson – wie Kubernetes ihnen hilft, ihren Entwicklungsansatz zu optimieren und warum es in DevOps mehr Dev als Ops gibt.
Das Treffen findet am 21. Juni (Freitag) um 18:30 Uhr im Moskauer Büro der Mail.ru Group (Leningradsky Prospekt, 39, Gebäude 79) statt. ist erforderlich und endet am 20. Juni um 11:59 Uhr (oder früher, wenn der Platz knapp wird).
„Kubernetes für Entwickler: Wie viele Entwickler gibt es in DevOps?“
Grigory Nikonov, Wunderman Thompson, Geschäftsführer
Wir haben keine Cluster mit 500 Knoten. Wir haben kein striktes DevOps. Wir haben keine speziellen Produktteams. Aber wir haben viele interessante Projekte und Antworten auf Fragen, die wir bei der Entwicklung und Unterstützung dieser Projekte gefunden haben. Erstens sind wir Entwickler und es gewohnt, selbst Tools zu erstellen, die wir dann verwenden. Vielleicht helfen sie Ihnen auch bei Ihrer Arbeit.
Die Agentur Wunderman Thompson gehört zu den Pionieren bei der Entwicklung von Internetlösungen in Russland und entwickelt mittlerweile sowohl einfache Landingpages als auch komplexe verteilte Systeme. Kubernetes trägt zur Optimierung des Entwicklungsansatzes bei und unterstützt Agenturkunden beim Hosten und Betreiben der erstellten Lösungen.
In verteilten Systemen mit einer großen Anzahl von Integrationen und internen Komponenten ist eine Microservices-Architektur eine natürliche Antwort auf die Anforderungen an die Aktualisierbarkeit und Wartbarkeit der Lösung. Der Übergang zu einer solchen Architektur führt jedoch zu einer ganzen Reihe von Problemen im Zusammenhang mit der Versionierung und Veröffentlichung. Die Tatsache, dass wir eine Agentur und kein dediziertes Produktteam sind und unsere Entwickler den bereitgestellten Kontext einer bestimmten Lösung nicht ständig auf ihren Computern speichern, stellt eigene Anforderungen an die Reproduzierbarkeit der Entwicklungsumgebung und die Fähigkeit, Änderungen vorzunehmen an mehrere Teams gleichzeitig und kehren nach einiger Zeit zum Projekt zurück. Als Reaktion auf diese Herausforderungen haben wir Prozesse und Tools entwickelt, die es unseren Entwicklern und DevOps erleichtern, die von ihnen erstellten Lösungen zu entwickeln und zu unterstützen.
Sie erfahren, warum DevOps mehr Dev als Ops ist und wie Faulheit die Entwicklungs-/Supportzeit und -kosten reduzieren kann, außerdem:
- wie Kubernetes die Art und Weise verändert hat, wie wir Projekte entwickeln;
- wie der Lebenszyklus unseres Codes aussieht;
- welche Tools wir für die kontrollierte Veröffentlichung von Microservices verwenden;
- wie wir das Problem der Zusammenstellung veralteter Artefakte lösen;
- wie wir gerne im Cluster bereitstellen.
„Anwendungen mit Kubernetes Cluster Autoscaler skalieren: die Nuancen von Autoscaler und die Implementierung von Mail.ru Cloud Solutions“
Alexander Chadin, Mail.ru Cloud Solutions, Entwickler von PaaS-Diensten
In der heutigen Welt erwarten Benutzer als Selbstverständlichkeit, dass Ihre Anwendung immer online und immer verfügbar ist – und daher jeden Datenverkehr bewältigen kann, egal wie groß er ist. Kubernetes bietet eine recht elegante Lösung, mit der Sie sich je nach Auslastung skalieren können – Kubernetes Cluster Autoscaler.
Im Allgemeinen gibt es in Kubernetes zwei Arten der Skalierung, je nachdem, was genau wir skalieren: mehr Kopien der Anwendung oder mehr Ressourcen. Vertikale Skalierung, wenn wir die Anzahl der Anwendungsreplikate innerhalb bestehender Knoten erhöhen. Und komplexere horizontale Skalierung – wir erhöhen die Anzahl der Knoten.
Im zweiten Fall können wir noch mehr Kopien der Anwendung erstellen – was ihre hohe Verfügbarkeit gewährleistet. Wir werden über die horizontale Skalierung mit Cluster Autoscaler sprechen. Je nach Auslastung kann die Anzahl der Knoten nicht nur erhöht, sondern auch verringert werden. Beispielsweise reduziert Autoscaler selbst bei Lastspitzen die Anzahl der Knoten auf das erforderliche Maß und damit die Gebühr für die Ressourcen des Anbieters.
Beim Treffen werden wir Ihnen mehr über die Nuancen von Kubernetes Cluster Autoscaler erzählen und darüber, auf welche Schwierigkeiten wir bei der Einführung unserer Implementierung von Cluster Autoscaler als Teil des Mail.ru Cloud Containers-Dienstes gestoßen sind. Du wirst es lernen:
- Welche Skalierer sind in Kubernetes verfügbar, was sind die Merkmale ihrer Verwendung?
- worauf Sie beim Einsatz von Scalern achten sollten;
- wie wir Knoten mithilfe von Knotengruppen nach Verfügbarkeitszonen segmentiert haben;
- wie wir die Unterstützung für Kubernetes Cluster Autoscaler in MCS implementiert haben.
„F&E bei der Gazprombank: Wie K8S bei der Verwaltung von OpenStack hilft“
Maxim Kletskin, Gazprombank, Produktmanager
In einer Welt, in der der Trend zu „Alles als Service“ geht, steht die Time-to-Market an erster Stelle. Es ist notwendig, Anwendungen schnell zu entwickeln, um Hypothesen zu testen und neue Märkte im Moment ihrer anfänglichen Entstehung zu finden. Geschwindigkeit ist für Banken besonders wichtig, und hier helfen neue Technologien – insbesondere Containerisierungstechnologien und Kubernetes.
Maxim Kletskin ist Produktmanager bei der Gazprombank und entwickelt eine Sandbox für die Einführung von Pilotprodukten. Die Forschungs- und Entwicklungsabteilung der Gazprombank führt verschiedene Studien in ihrer Cloud, OpenStack, durch. Kubernetes wird hier in zwei Formen verwendet: 1) Kubernetes auf Bare Metal als Verwaltungsschicht der OpenStack-Cloud und 2) K8S als OpenShift-Distribution für die Entwicklung.
Im Bericht werden wir über den ersten Fall sprechen und herausfinden, wie die Gazprombank Kubernetes zur Verwaltung von OpenStack nutzt. Wenn Sie sich die OpenStack-Architektur ansehen, können Sie erkennen, dass sie ziemlich atomar ist, sodass die Verwendung von Kubernetes als Verwaltungsebene von OpenStack sehr interessant und logisch erscheint. Dies erleichtert auch das Hinzufügen von Knoten zu einem OpenStack-Cluster und erhöht die Zuverlässigkeit der Kontrollebene. Und wie das Tüpfelchen auf dem i wird es die Erfassung der Telemetriedaten vom Cluster vereinfachen.
Sie werden lernen:
- Warum F&E-Bank: Wir testen und experimentieren;
- wie wir OpenStack containerisieren;
- wie und warum OpenStack in K8S bereitgestellt wird.
Nach den Auftritten werden wir reibungslos auf das @Ku-Format umstellenBiernetes After-Party, und wir haben auch einige coole Ankündigungen für Sie vorbereitet. Unbedingt anmelden Wir prüfen alle Bewerbungen innerhalb weniger Tage.
Über neue Veranstaltungen in der @Kubernetes Meetup-Reihe und andere Veranstaltungen Wir geben sofort in unserem Telegram-Kanal bekannt:
Sind Sie daran interessiert, beim nächsten @Kubernetes-Meetup zu sprechen? Hier können Sie Ihre Bewerbung einreichen:
Source: habr.com
