
Seit Februar ist die
Liebe Kubernetes für uns eine Ewigkeit vergangen. Der einzige Unterschied bestand darin, dass es uns gelungen ist, in die Cloud Native Computing Foundation einzutreten, unsere Kubernetes-Distribution im Rahmen des Certified Kubernetes Conformance Program zu zertifizieren und auch unsere Kubernetes Cluster Autoscaler-Implementierung in
Mail.ru Cloud Containers zu starten.
Es ist Zeit für das dritte @ Kubernetes Meetup! Kurzum:
- Die Gazprombank wird erläutern, wie sie Kubernetes in ihrer Forschung und Entwicklung zur Verwaltung von OpenStack verwenden.
- Mail.ru Cloud Solutions - Skalieren von Anwendungen in K8S mithilfe von Skalierern und Vorbereiten der Implementierung von Kubernetes Cluster Autoscaler;
- und Wunderman Thompson, wie Kubernetes ihnen hilft, ihren Entwicklungsansatz zu optimieren und warum DevOps mehr Dev als Ops hat.
Das Treffen findet am 21. Juni (Freitag) um 18:30 Uhr im Moskauer Büro der Mail.ru Group statt (Leningradsky Prospekt, 39, S. 79).
Die Registrierung ist erforderlich und endet am 20. Juni um 11:59 Uhr (oder früher, wenn die Plätze knapp werden).
"Kubernetes für Entwickler: Wie viele Entwickler gibt es in DevOps?"
Grigory Nikonov, Wunderman Thompson, Geschäftsführer
Wir haben keine Cluster mit 500 Knoten. Wir haben keine harten DevOps. Wir haben keine speziellen Produktteams. Wir haben jedoch viele interessante Projekte und Antworten auf die Fragen, die wir bei der Entwicklung und Unterstützung dieser Projekte gefunden haben. Zunächst einmal sind wir Entwickler und daran gewöhnt, selbst Tools zu erstellen, die wir später verwenden werden. Vielleicht helfen sie Ihnen bei Ihrer Arbeit.
Die Wunderman Thompson Agency ist einer der Pioniere bei der Entwicklung von Internetlösungen in Russland und entwickelt derzeit sowohl einfache Zielseiten als auch komplexe verteilte Systeme. Kubernetes hilft bei der Optimierung des Entwicklungsansatzes und für Agenturkunden - Hosting und Betrieb der erstellten Lösungen.
In verteilten Systemen mit einer großen Anzahl von Integrationen und internen Komponenten ist die Microservice-Architektur eine natürliche Antwort auf die Anforderungen für die Aktualisierung und Wartung der Lösung. Der Übergang zu einer solchen Architektur wirft jedoch eine ganze Reihe von Problemen im Zusammenhang mit der Versionierung und Veröffentlichung auf. Die Tatsache, dass wir eine Agentur und kein dediziertes Produktteam sind und unsere Entwickler den detaillierten Kontext einer bestimmten Lösung auf ihren Maschinen nicht ständig pflegen, stellt ihre Anforderungen an die Reproduzierbarkeit der Entwicklungsumgebung, die Fähigkeit, Änderungen an mehreren Teams gleichzeitig vorzunehmen und nach einiger Zeit zum Projekt zurückzukehren . Die Antworten auf diese Herausforderungen sind die von uns entwickelten Prozesse und Tools, die es unseren Entwicklern und DevOps erleichtern, Lösungen zu entwickeln und zu warten.
Sie werden herausfinden, warum DevOps mehr Dev als Ops ist und wie faul Entwicklungs- und Supportzeit und -kosten reduzieren können, sowie:
- wie Kubernetes unseren Ansatz zur Projektentwicklung geändert hat;
- Wie sieht der Lebenszyklus unseres Codes aus?
- Welche Tools verwenden wir für die kontrollierte Veröffentlichung von Microservices?
- wie wir das Problem der Zusammenstellung veralteter Artefakte lösen;
- wie wir uns gerne im Cluster bereitstellen.
„Skalieren von Anwendungen mit Kubernetes Cluster Autoscaler: Autoscaler-Nuancen und Implementierung von Mail.ru Cloud Solutions“
Alexander Chadin, Mail.ru Cloud Solutions, Entwickler von PaaS-Diensten
In der modernen Welt erwarten Benutzer, dass Ihre Anwendung immer online und immer verfügbar ist - was bedeutet, dass sie jedem Verkehrsfluss standhält, egal wie groß sie auch sein mag. Kubernetes bietet eine recht elegante Lösung, mit der Sie sich an die Last anpassen können - Kubernetes Cluster Autoscaler.
Im Allgemeinen gibt es bei Kubernetes zwei Arten der Skalierung in Bezug auf die Skalierbarkeit: mehr Kopien der Anwendung oder mehr Ressourcen. Vertikale Skalierung, wenn wir die Anzahl der Anwendungsreplikate in vorhandenen Knoten erhöhen. Und komplexere horizontale Skalierung - erhöhen Sie die Anzahl der Knoten selbst.
Im zweiten Fall können wir noch mehr Kopien der Anwendung erstellen, wodurch deren hohe Verfügbarkeit sichergestellt wird. Wir werden mit Cluster Autoscaler über horizontale Skalierung sprechen. Es kann nicht nur die Anzahl der Knoten in Abhängigkeit von der Last erhöhen, sondern auch verringern. Zum Beispiel geht die Spitze der Last vorbei - dann reduziert Autoscaler selbst die Anzahl der Knoten auf den erforderlichen und damit die Gebühr für die Ressourcen des Anbieters.
Während des Meetings werden wir Ihnen mehr über die Nuancen von Kubernetes Cluster Autoscaler sowie über die Schwierigkeiten erzählen, auf die wir beim Starten unserer Implementierung von Cluster Autoscaler als Teil des Mail.ru Cloud Containers-Dienstes gestoßen sind. Sie werden lernen:
- Was sind Skalierer in Kubernetes, was ist die Besonderheit ihrer Verwendung;
- Worauf Sie bei der Verwendung von Skalierern achten sollten;
- wie wir Knoten mithilfe von Knotengruppen nach Barrierefreiheitszonen segmentiert haben;
- Wie sie die Unterstützung für Kubernetes Cluster Autoscaler in MCS implementiert haben.
F & E der Gazprombank: Wie K8S OpenStack verwaltet
Maxim Kletskin, Gazprombank, Produktmanager
In einer Welt, in der der Trend für alles als Dienstleistung gesetzt ist, steht Time-to-Market vor allem im Vordergrund. Anwendungen müssen schnell entwickelt werden, um Hypothesen zu testen und zum Zeitpunkt ihrer Entstehung neue Märkte zu finden. Geschwindigkeit ist für Banken besonders wichtig, und hier helfen neue Technologien - insbesondere Containerisierungstechnologien und Kubernetes.
Maxim Kletskin ist Produktmanager bei der Gazprombank und entwickelt eine Sandbox für die Einführung von Pilotprodukten. Die F & E der Gazprombank führt verschiedene Studien in ihrer Cloud durch, bei der es sich um OpenStack handelt. Kubernetes wird auf zwei Arten verwendet: 1) Kubernetes on Bare Metal als Managementebene der OpenStack-Cloud und 2) K8S als OpenShift-Distribution für die Entwicklung.
In dem Bericht werden wir über den ersten Fall sprechen und herausfinden, wie die Gazprombank Kubernetes zur Verwaltung von OpenStack verwendet. Wenn Sie sich die OpenStack-Architektur ansehen, sehen Sie, dass sie atomar genug ist. Daher erscheint die Verwendung von Kubernetes als OpenStack-Steuerungsschicht sehr interessant und logisch. Darüber hinaus wird das Hinzufügen von Knoten zum OpenStack-Cluster erleichtert und die Zuverlässigkeit der Steuerungsebene erhöht. Und wie eine Kirsche auf einem Kuchen vereinfacht es das Sammeln von Telemetrie aus einem Cluster.
Sie werden lernen:
- warum F & E zur Bank: testen und experimentieren;
- Wie wir OpenStack containerisieren
- Wie und warum wird OpenStack in K8S bereitgestellt?
Nach den Reden werden wir reibungslos zum After-Party-Format von @Ku
Beer Netes wechseln, und wir haben auch einige coole Ankündigungen für Sie vorbereitet. Registrieren Sie sich
hier , wir prüfen alle Bewerbungen innerhalb weniger Tage.
Wir informieren Sie umgehend über neue Ereignisse der @ Kubernetes Meetup-Reihe und andere
Mail.ru Cloud Solutions- Ereignisse in unserem Telegrammkanal:
t.me/k8s_mailMöchten Sie beim nächsten @ Kubernetes Meetup sprechen? Die Bewerbung kann hier hinterlassen werden:
mcs.mail.ru/speak