CMG Impact 2016 Konferenzrückblick

Dieser Artikel ist der Konferenz gewidmet, die vor fast zwei Jahren stattfand. Warum über so langjährige Ereignisse schreiben? Erstens wissen meiner Meinung nach nicht viele Menschen über diese Konferenz Bescheid. Zweitens sind meine persönlichen Eindrücke von ihr selbst nach zwei Jahren so stark, dass ich einfach nicht anders kann, als sie zu teilen. Drittens wollte ich unbedingt schreiben, aber es war nicht ganz klar, wie es geht, da ich noch nie zuvor Rezensionen geschrieben hatte. Dies ist mein dritter Versuch, über diese Konferenz zu schreiben. Und natürlich möchte ich der Distillery Company, in der ich damals gearbeitet habe, und meinem Vorgesetzten Sergei Meshcheryakov für die Gelegenheit danken, an dieser Konferenz teilzunehmen.



Die internationale CMG Impact Conference wird jährlich von der American Association of Specialists auf dem Gebiet der Verbesserung der Leistung von IT-Systemen abgehalten. Die jährliche CMG-Konferenz findet seit 1980 statt.

Die Konferenz widmet sich dem Performance Engineering und der Kapazitätsplanung. Die Organisatoren, Referenten und Konferenzteilnehmer sind hochqualifizierte Spezialisten in der IT oder im Bereich der Kapazitätsplanung, von denen viele mit der Arbeit an Mainframes begonnen haben, dann auf verteilte Systeme umgestiegen sind und derzeit weiterhin in führenden Unternehmen der Branche arbeiten. Die Qualifikation vieler von ihnen ist erstaunlich. An der Konferenz nahmen Unternehmen oder deren Vertreter teil, die sich mit der Überwachung oder Prüfung der Leistung von Dynatrace, NewRelic, Soasta, Jmeter, BMC, Moviri, BezNext und vielen anderen befassten.

Auf der Konferenz wurden 120 Berichte aus mehr als 15 Ländern der Welt vorgestellt, hauptsächlich aus den USA, Kanada und europäischen Ländern. Es wurde fünf Tage lang vom 7. bis 11. November 2016 durchgeführt. Die Arbeitsweise war wie folgt: Die Berichte auf der Plenarsitzung begannen ab 8.00 Uhr morgens und wurden mit Schnittberichten in 8 Räumen bis 19.00 Uhr abends mit einer kurzen Mittagspause gegen Mittag fortgesetzt. Jeder Arbeitstag der Konferenz endete mit einem allgemeinen Buffet, bei dem es möglich war, persönlich mit allen Rednern zu kommunizieren und die vorgelegten Berichte zu diskutieren. Es war ziemlich schwierig, eine Auswahl für den Bericht zu treffen, da die Berichte von Interesse in parallelen Sitzungen gleichzeitig in verschiedenen Räumen stattfanden.

In diesem Artikel werde ich kurz die Berichte beschreiben, die mir am besten gefallen haben.

Die American Association of Specialists zur Verbesserung der Leistung von IT-Systemen Computer Management Group hat 1974 den jährlichen Abraham Michelson Award für seinen professionellen Beitrag zur Bewertung der Systemleistung ins Leben gerufen. Diese Auszeichnung wird traditionell auf der CMG Impact Conference vergeben.

Konferenzeröffnung und Verleihung des Michelson Award AA


Die Konferenz wurde mit dem Andrei Bondi AA Michelson Award eröffnet, einem unabhängigen Berater, Autor von Grundlagen des Software- und System Performance Engineering: Prozess, Leistungsmodellierung, Anforderungen, Tests, Skalierbarkeit und Praxis.
Die erste Plenarsitzung begann mit einem Bericht von Andre Bondi. Die Schlüsselidee des Berichts war, dass die Optimierung zuweilen niemals zu Leistungsverbesserungen führen wird. Laut dem Autor des Berichts kann die größte Produktivitätssteigerung erzielt werden, indem Architekturfehler im System beseitigt werden. Ich denke, viele von Ihnen wissen das aus persönlicher Erfahrung. Im Laufe meiner Karriere bin ich zu dem gleichen Schluss gekommen. Der Wechsel von einem scheinbar produktiveren System zu einem bescheideneren OpenSource-System kann beispielsweise zu einer Leistungssteigerung führen, wenn das Team während der Übertragung die Architekturfehler der vorherigen Version des Systems beseitigt.

Skalierbarkeit und Leistung erreichen> 1 Million gleichzeitige Benutzer gleichzeitig
Lukas Sliwka, Grindr


Die nächste interessante Präsentation für mich war der Bericht von denen. Grindr Regisseur Lucas Cream. Grindr ist eine Online-Dating-Anwendung. Lukash sprach gleichzeitig über die Transformation des Unternehmens und die Entwicklungskultur (sie wechselten zu Scrum) und über die technische Transformation des Systems. Grindr hat über 2,5 Millionen Benutzer, von denen 1 Million aktiv sind. Die Hauptnutzer vor der Konvertierung waren in den USA und Kanada, als sie von den USA wegzogen, verringerte sich die Anzahl der Benutzer.



Server und Data Warehouses befanden sich ebenfalls hauptsächlich in den USA. Darüber hinaus wurde die Anwendung bereits auf den leistungsstärksten Server auf dem Hosting umgestellt, und das Unternehmen steht vor dem akuten Problem der Optimierung und Skalierung. Das Problem der Optimierung und Skalierung wurde radikal gelöst - das Team hat das gesamte Projekt von Ruby on Rails bis Scala komplett neu geschrieben, es dauerte sechs Monate. Scala wurde aus zwei Gründen ausgewählt: Erstens war es möglich, sauberen Code mit guter Leistung zu schreiben. Zweitens standen Java-Entwickler mehr zur Verfügung, im Gegensatz zu Node.js Entwicklern, die teuer waren und alle auf Facebook arbeiteten.

Die interessante Erfahrung von Grindr zeigt, dass für eine erfolgreiche Entwicklung manchmal eine neue Architektur erforderlich ist. Als nächstes wurde eine Analyse der Dauer der Antwort im Kontext jedes Landes durchgeführt, und es stellte sich heraus, dass je länger die Antwort ist, desto weniger Benutzer in diesem Land. Das Entwicklungsteam hat die Reaktionszeit optimiert, sie mithilfe von CDN erheblich reduziert und das Data Warehouse auf Cloud-Servern mit Zentren in Europa, Asien und Lateinamerika verteilt. Nachdem die Leistungsprobleme behoben wurden, hat die Anzahl der Benutzer der Anwendung weltweit zugenommen. Dieses Beispiel zeigt eine direkte Beziehung zwischen kurzen Antwortzeiten und der Anzahl der Benutzer.

Der zweite Teil des Berichts war dem Teammanagement gewidmet. Grindr arbeitet an Scrum. Die Trennung der Teams erfolgt nach Produkten, dh jedes Team ist voll verantwortlich für einen Service oder ein Produkt für den Benutzer und für den Geschäftswert, den der Benutzer erhält. Das Unternehmen ist ein metrikgesteuertes Unternehmen, und jedes Team hat seine eigenen Metriken und KPIs, die es erreichen muss. Das Management auf mittlerer Ebene fehlt vollständig. Das Unternehmen ist flach strukturiert und das Team entscheidet, was zu tun ist und wie die Ziele erreicht werden. Lukashs Berichte sind auf YouTube . Das Lucas-Interview finden Sie hier .

Ist Ihre Kapazität verfügbar?
Igor Trubin, Capital One Bank


Es ist interessant, dass der Autor seinen Bericht mit Informationen begann, dass die Capital One Bank beschlossen hat, ein informativ offenes Unternehmen zu werden. Es ist bekannt, dass Banken normalerweise nicht über Technologien und Prozesse sprechen. Wird in ihrer Arbeit verwendet, wobei diese Informationen vertraulich behandelt werden. In der modernen Welt müssen Banken jedoch offener sein, um um führende Spezialisten und deren Talente zu konkurrieren, die normalerweise bei Google und Facebook arbeiten.

Der Bericht befasste sich mit der Bewertung der Kombination aus Systemverfügbarkeit und Leistungsspanne. Da niemand Bandbreite benötigt, kann diese nicht genutzt werden.

Igor beschreibt eine bestimmte Form, wie Sie Ihre Kapazität und ihre Verfügbarkeit messen können. Er hat Kennzahlen wie die durchschnittliche Zeit zwischen Stürzen, die durchschnittliche Erholungszeit, die Ausfallzeit für ein Jahr und andere. Igor gibt eine Formel an, mit der Sie die Verfügbarkeit Ihrer gesamten Infrastruktur für Benutzer berechnen können. Sie können seinen Bericht detaillierter sehen.

Kapazitätsplanung für digitale Erlebnisse
Amy Spellmann und Richard Gimark


Planungsgespräch für IoT Business-Metriken, IT-Metriken und Facility-Metriken.

Ein Bericht über die Tatsache, dass viele Infrastrukturen jetzt nahe an der Grenze ihrer Bandbreite arbeiten und was passieren wird, wenn IoT überall funktioniert. Für mich war der Umfang des Berichts am interessantesten. Das heißt, es gibt Fachleute, die für den Standort, für die Organisation planen, und dies ist eine ganze Branche. Wie oft erheben wir uns zu einer so großen Vision?

Leistungssicherung für Unternehmen basierend auf BigData-Analysen
Boris Zibitsker


Boris spricht über BigData und Ansätze zur Arbeit mit Big Data. Er identifiziert die folgenden Phasen der Arbeit mit Daten. Vorausschauende Analyse, da ein Unternehmen Entscheidungen auf der Grundlage aktueller Daten treffen muss. Zeit ist Geld und nichts hat sich im Laufe der Jahre geändert, außer dass die Zeit jetzt noch teurer geworden ist. Informationen sind teuer, wenn sie relevant sind.
Durch die Arbeit mit Big-Data-Clustern können Sie die erforderlichen Analysen rechtzeitig durchführen. Boris beschreibt dann die Schritte. Zwei Hauptansätze sind die Echtzeitanalyse von Daten in einem Stream oder die Erfassung in DataLake.

Der Bericht beschreibt den Ansatz der Verwendung von Big-Data-Verarbeitungs- und maschinellen Lernalgorithmen zur Durchführung von RCA im Fehlerfall sowie die Erstellung von Prognosen auf der Grundlage solcher Berichte über das weitere Verhalten des Systems.

Ein wichtiger Punkt ist die Überprüfung der Zuverlässigkeit der Ergebnisse durch Vergleich des tatsächlichen Verhaltens mit dem vorhergesagten.

Die Top 10 Leistungsfehler, die Online-Organisationen Millionen kosten
Craig Hyde, Rigor und Rigor


Craig beschreibt die 10 teuersten Fehler, die sich auf die Leistung der Website auswirken. Craig zitiert Zahlen, wonach ein Unternehmen im Durchschnitt 102 Millionen US-Dollar an Potenzial für 1 Sekunde Wartezeit verliert. Interessant, oder? Das Unternehmen hat eine Analyse von etwa 500 Websites durchgeführt und die zehn wichtigsten Probleme zusammengestellt, die zu einer schlechten Leistung führen. Craigs Empfehlungen zur Verwendung von Caches, CDNs, Einstellen der richtigen Bildauflösung und Komprimierung. Die Hauptsache ist jedoch, zu testen, was passiert ist. Wie sich herausstellte, denken viele Leute, dass sie den Cache verwenden, aber etwa 70% des Inhalts werden möglicherweise aufgrund falscher Einstellungen nicht zwischengespeichert. Craig empfiehlt, eine Leistungsbasis festzulegen und diese einzuhalten, ein Leistungsziel festzulegen, um Engpässe zu erreichen, zu testen und zu optimieren. Testtools Webseitentest, Google Analytics, Seitengeschwindigkeit, strenger Bericht. Am meisten Spaß machten mir die Bilder auf den Websites in einer großen Erweiterung, während die Größe es mir nicht erlaubt, dies zu bewerten, sodass eine Verringerung der Auflösung nicht zu einer Qualitätsverschlechterung führt.

Ich konnte die Folien von Craig nicht finden, aber hier ist ein Bericht eines Mitarbeiters des Unternehmens zum selben Thema.

Riskantes Geschäft
Jeff Buzen


Ein paar Worte zu Jeff - er ist Lehrer in Harvard, Autor von drei Büchern, das erste wurde 71 veröffentlicht und das letzte 2015 - Zufälligkeit neu denken: Eine neue Grundlage für stochastische Modellierung, Wiki-Artikel , Interview mit Jeff .

Bericht über die Modellierungs- und Prognoseleistung. Jeff beschreibt die Risiken, die bei der Modellierung eines Systems auftreten - Modellrisiko, Risiko von Systemlastparametern, Prognoserisiko, Anwendungsrisiko, Nutzungsrisiko - bei der Arbeit. Jeff beschreibt detailliert alle möglichen Risiken, die bei der Modellierung des Systems auftreten, und versucht vorherzusagen, wie viel Ressourcen benötigt werden und welche Art von Systemverfügbarkeit erforderlich ist. Optionen, da kein SLA geschrieben werden muss - 90% der Anforderungen werden in 0,5 Sekunden ausgeführt. Weniger riskant - die Länge der Warteschlange beträgt weniger als 33x90% der Zeit. In seinem Buch geht es darum. Die Prognosen, die wir aus der klassischen Mathematik verwenden, liefern nicht immer die richtigen anwendbaren Ergebnisse, obwohl die Formeln möglicherweise korrekt sind. Vorhersagen hängen stark von den Annahmen des Modells ab. Es ist vorzuziehen, eine Prognose zu verwenden, die auf einer Analyse von Alternativen basiert (AoA, Analyse von Alternativen).

Ich saß da ​​und dachte - wie weit ist das von meiner Erfahrung entfernt - oh, wir haben immer noch einen Produktivitätsspielraum in 2-mal, was? Wie haben Sie es herausgefunden? Nun, es gab einen Höhepunkt und Warteschlangen sammelten sich bereits im System. Nehmen wir einen größeren Server. Was sagst du? Nun, was sind die Zeilen? Nun, bevor wir sie verwendeten, fiel das System einfach aus. Hier ist ein Ansatz zur Leistungsplanung, der mit einem Systemmodell beginnt - einem anderen Planeten.

Wie kann BigData genutzt werden?
Renato Bonomini, Stefano Doni, Moviri


Als nächstes kam ein Workshop von Moviri . Moviri ist ein Unternehmen, das von einem Professor an der Polytechnischen Universität Mailand mit Büros in Mailand und Boston gegründet wurde und sich auf Leistungs- und Durchsatzanalysen spezialisiert hat. Wie wichtig es ist, nicht nur viele Daten zu sammeln, sondern auch davon zu profitieren. Stapelgarn, HDFS, Schwein, Bienenstock, Funke, Tierpfleger, Cassandra, Cloudera, Kubernetes. Der Bericht zeigte, wie viel bequemer es wurde, mit sich ändernden Leistungen auf Systemen zu arbeiten, die in Containern ausgeführt werden.

Moviri lud mich in mein Büro ein, das ich ausnutzte, da ich ungefähr einen Monat später nach Italien ging. Es war großartig, Stefano Doni kennenzulernen und Luca Forni kennenzulernen, das Büro zu besuchen und über alles rund um die Leistungsanalyse zu sprechen, angefangen bei der Leistungsanalyse bis hin zu den Problemen, auf die Berater bei der Kommunikation mit dem Kundenteam stoßen.

Moviri Blog .

Leistung oder Kapazität? Unterschiedliche Ansätze für unterschiedliche Aufgaben
Alexander Gilgur, Facebook


Der Bericht ist hilfreich für diejenigen, die an der Vorhersage der Leistung und der Bandbreitenplanung beteiligt sind. Alexander gibt Beispiele und Ansätze an, die für jeden Fall verwendet werden sollten. Obwohl die Konzepte von Kapazität und Leistung eng beieinander liegen, sollten im Allgemeinen unterschiedliche Methoden für Prognosen verwendet werden, wobei das Endziel der Arbeit im Vordergrund steht. Warum machen wir das? Wir möchten verstehen, wie viel Ausrüstung wir benötigen und welche Bandbreite wir bereitstellen möchten, oder wir möchten die Systemleistung vorhersagen.

Hier können Sie den Artikel von Alexander lesen.
Folien .

So fangen Sie an, wenn Sie nicht wissen, wo Sie anfangen sollen.
Justin Martin, Cerner


Über den Grund, warum im Allgemeinen eine Leistungsüberwachung erforderlich ist. Aber die Wahrheit ist! Viele leben ohne Überwachung und alles scheint in Ordnung mit ihnen zu sein. In der Tat brauchen viele es nicht. Bis sie einen Artikel über ihre wundervolle Site im Hub veröffentlichen und die Leute nicht zu ihnen gehen, um zu sehen, was da ist. Oder bis etwas anderes nicht zu vielen, vielen Benutzern führt.



In dem Bericht erzählt Justin ganz einfach, was getan werden kann, um loszulegen. Kapazitätsmanagement in 90 Tagen

Schritte

  1. Bestimmen Sie die Spitzenzeiten für Ihr System
  2. Untersuchen Sie die Leistungsgrenzen Ihres Projekts (in dem Moment, in dem das System die Verarbeitung von Anforderungen bereits beendet und die Leistung abnimmt).
  3. Produktivitätsverluste reduzieren
  4. Gleichen Sie den Bedarf aus - vielleicht können Sie einige Lasten von Stoßzeiten auf weniger geschäftige Zeiten übertragen.



Linkedin Justin . Folien sind in dem Artikel über die Konferenz zu sehen, den ich am Ende veröffentlichen werde.

Dynamischer Lastausgleich und kontinuierliche Servicebereitstellung in einer Big Cloud-Infrastruktur
Yuri Ardulov, RingCentral


Yuri beschreibt den Übergang von RingCentral von einem Monolithen mit einem Legacy-Code zu Microservices. Die Probleme mit dem monolithischen Code waren, dass es schwierig war, die Konfiguration zu ändern, es nicht möglich war, eine kontinuierliche Lieferung durchzuführen, Schwierigkeiten beim Erreichen der erforderlichen Verfügbarkeitsindikatoren, es gab keine Möglichkeit, A \ B-Tests durchzuführen, die Möglichkeit, neue Funktionen nur für einige Benutzer anzuwenden. Das System wurde neu gestaltet und Container und Microservices wurden in dem neuen Design verwendet. Es wurde möglich, die Größe des Systems online zu ändern und die Version des Dienstes zu ändern, ohne die Konfiguration zu ändern. In der Microservice-Architektur wurden eine Anwendungsroutingschicht, eine Ausgleichsschicht, eine Dienstschicht (speichert keinen Status) zugewiesen. Nachdem die Ops-Änderungen vorgenommen wurden, konnten die Teams eine kontinuierliche Lieferung im laufenden Betrieb durchführen. Die Verfügbarkeit des Systems stieg von 4 auf 9,998. Der Zeitaufwand für die Erweiterung des Systems und die Bereitstellung neuer Server wurde auf 4 Stunden reduziert.

Vermeiden Sie mit Lifecycle Virtualization Kosten, Verzögerungen und fehlgeschlagene Releases
Todd DeCapua, CSC Digital Brand Services


Tods Bericht konzentriert sich auf die Reduzierung von Release-Problemen. Die Schlüsselidee ist, dass es beim Testen eines Programms wichtig ist, den gesamten Lebenszyklus des Programms zu berücksichtigen.

4 Schlüsselkomponenten:

  1. Benutzer - Benutzervirtualisierung, die das Verhalten Ihrer realen Systembenutzer simuliert.
  2. Dienste - Es muss eine Virtualisierung der Dienste geben, damit Sie den Betrieb des gesamten Prozesses von Anfang bis Ende überprüfen können.
  3. Netzwerk - Emulation der Netzwerkbetriebsbedingungen.
  4. Daten - Datenvirtualisierung mit einem Verkauf, um Anwendungsaufrufe zu simulieren, die nahe an dem liegen, was in der Realität passieren wird.

Nach meiner Erfahrung ist ein großer Prozentsatz der Fehler während der Bereitstellung auf die Tatsache zurückzuführen, dass nur wenige Personen alle vier Bedingungen erfüllen und das Produkt immer etwas enthält, das niemand erwartet hat, und dies bricht die Veröffentlichung. Es ist sehr wichtig, je nach Benutzerdaten und Verhalten unterschiedliche Anwendungsfälle für den Verkauf zu verwenden.

Hier ist ein Beispiel aus Tods Präsentation:





Tod - Autor eines Buches über Leistungsoptimierung , Leistungstests und deren Interpretation.

Das Buch zeigt, wie wichtig die Kultur der Leistungstests in einer Organisation ist und wie sie eingeführt werden kann, wenn dies derzeit niemand tut. Es werden einige Beispiele aus der Praxis gegeben, die eine Beschreibung der Aufgabe des Teams, Lösungsmöglichkeiten, den vom Team gewählten Ansatz und die Konsequenzen für das reale System enthalten. Meiner Meinung nach geht es in diesen Geschichten oft darum, wie schwierig es ist, das Verhalten des Endbenutzers vorherzusagen, und wie wichtig es ist, aus einer endlichen Anzahl von Benutzern eine kleine Fokusgruppe zu erstellen und zu sehen, wie Ihre Prognose mit dem Verhalten der Fokusgruppe übereinstimmt.

Implementierung metrikgesteuerter DevOps: Warum und wie!
Andreas Grabner, Dynatrace


Bericht von Andreas Grabner über DevOps-Praktiken in verschiedenen Unternehmen und warum kurze Zeit2 wichtig ist. Andreas verwendete eine sehr interessante Metapher über Fotografie. Viele Menschen erinnern sich an Filmfotos - Sie machen ein Foto, entwickeln, drucken und sehen, dass es nicht erfolgreich ist, aber Sie haben keine Möglichkeit, das Foto erneut aufzunehmen, da Sie sich bereits im falschen Moment befinden.

Jetzt ist alles anders - Sie machen ein Foto, stellen es auf Instagram und erhalten sofort Feedback, und Sie können etwas von dem beenden, was Ihre Abonnenten fragen. Sie sind noch im Moment und erhalten eine Reaktion in Echtzeit.

Zurück zur Software - wie zuvor - wurden neue Softwarefunktionen geplant, implementiert, getestet und erstellt, beispielsweise 1 Release pro Jahr. Und sie verstanden, dass die Funktionalität, die viel Geld und Mühe ausgab, von zwei von Millionen Benutzern benötigt wurde. Ist dir das passiert?

Wie ist es jetzt Agil und die Fähigkeit, mindestens jeden Tag Veröffentlichungen zu machen, wie es Facebook tut, ist die Fähigkeit, sofort zu beurteilen, wie sehr diese Funktionalität von Benutzern nachgefragt wird, ob sie mit Riffs gewichtet werden sollte oder besser, sie sofort wegzuwerfen und keine Zeit und Energie zu verschwenden.

Ich kann den Bericht nur einem Unternehmen empfehlen, das versucht, seinem Team zu erklären, warum es Scrum und Agile benötigt! Jetzt versuchen viele Frottee-Unternehmen mit Veröffentlichungen dreimal im Jahr, schneller, dünner und lauter zu werden.



Im Allgemeinen geht es in dem Bericht nicht darum, sondern darum, wie DevOps-Praktiken aufgebaut werden. Veröffentlichungen sind oft und gut. Ja, das passiert. Es ist wichtig, Metriken zu verwenden und die Situation mit der Anwendung und der Last zu überwachen und die richtige Bereitstellung für den Prozess vorzunehmen. Andreas ist ein Performance-Anwalt und hat einige nützliche Berichte zu diesem Thema mit ungewöhnlichen und eingängigen Folien.
Hier ist ein Bericht von Andreas mit etwas anderen Folien.

Leistungstests in neuen Kontexten
Eric Proegler, Soasta


Zu Beginn des Vortrags beschrieb Eric nachträglich, wie sich die Systemarchitektur seit 2000 geändert hat, wie sich der Übergang zur Cloud geändert hat oder hätte ändern sollen und wie die Systeme mit der Möglichkeit der Skalierung in der Cloud entworfen wurden. Eric gibt ein Beispiel aus der Praxis, als eines der TV-Unternehmen die Abstimmung in einer mobilen Anwendung startete und gerade während der Show, als Benutzer abstimmen mussten, das System der Last nicht standhalten konnte und nicht zugänglich war. Mit der Kultur der Startups ist es schwierig vorherzusagen, wie viele Benutzer sein werden, vielleicht waren 20.000 geplant, und die Anwendung wird schnell 50.000 erreichen. Es gibt viele Anwendungen zum Testen der Leistung in der Cloud BlazeMeter (Jmeter), Selen, Gatling, Grinder. Sie sind kostenlos, aber die Visualisierung der Ergebnisse ist nicht sehr praktisch.Daher wird empfohlen, entweder ein anderes Visualisierungstool (Tableau) oder eine eigene Datenbank zu verwenden, um später zu analysieren, was passiert ist. Beim Testen von Webanwendungen ist es wichtig sicherzustellen, dass eingehende Testbenutzer geoverteilt sind. Es ist ratsam, für jede Baugruppe kleine Leistungstests durchzuführen und diese mit den grundlegenden Ergebnissen zu vergleichen.

Erics Folien können auf Slideshare angezeigt werden.

Eric ist der Autor des Blogs .

Zusätzlich zu den auf der Konferenz vorgestellten Berichten wurden mehrere Diskussionen in Form eines „Runden Tisches“ organisiert. Mehrere Experten verurteilten das Thema im Format eines lebhaften aktiven Dialogs mit dem Publikum. Meiner Meinung nach ist dies ein sehr interessantes Format, da die Konferenzteilnehmer ihre oft beeindruckenden Erfahrungen teilen und mit jedem Experten und Teilnehmer über interessante Themen sprechen können.

Offtopic- und Backstage-Gespräche


Ein besonderer Teil meiner Eindrücke von der Konferenz ist die informelle Kommunikation mit Rednern und Teilnehmern. Dank des Formats von Diskussionen, Abendessen, Runden Tischen und Empfängen können Sie Menschen aus aller Welt aus verschiedenen Unternehmen treffen und Erfahrungen austauschen. Sehr viel Kommunikation innerhalb der Konferenz. Die Menschen sind sehr offen und bereit, Erfahrungen auszutauschen.

Ich möchte auch Debbie Sheetz erwähnen. Debbie arbeitete bei BMC und begann ihre Leistungsanalyse auf Mainframes. Dann wechselte sie zu verteilten Systemen. Ihre Erfahrung in der Überwachung ist groß und sehr interessant.

Ich hatte auch das Glück, mit Anush Najarian von MathWorks zu plaudern, dessen Erfahrung ebenfalls Aufmerksamkeit verdient.

Leider erlaubt die Anzahl der Berichte nicht, alle zu besuchen, und Berichte werden nicht aufbewahrt, dh es gibt keine Möglichkeit, sie zu Hause zu überprüfen. Die Organisatoren verwenden die Artikel, um Redner auszuwählen, und diese Artikel werden dann an die Konferenzteilnehmer weitergeleitet, aber es gibt keine Materialien von eingeladenen Rednern in der Sammlung.

Hier ist ein Anush-Artikel über die Konferenz .

CMG Impact ist eine sehr nützliche und interessante Konferenz mit einer großartigen Atmosphäre zum Erfahrungsaustausch, an der ich die Teilnahme empfehle.

Source: https://habr.com/ru/post/de412767/


All Articles