Marketing mit ML-Entscheidungsfindung

Die Priorisierung des Rückstands führt zur Wahl zwischen Strategien. Jeder hat seine Metriken. Es ist erforderlich, die wichtigste auszuwählen. ML-Scoring ist eine Lösung, wenn keine Linearität vorliegt und die Wirtschaftlichkeit nichtlinear ist. Siehe Einführung hier . Es werden zwei Gruppen betrachtet. Erstens (I) entspricht der Webkonvertierung {Absprungrate, Mikrokonvertierung, Zeit, Tiefe}. Zweitens (II) entspricht der Anziehung neuer Besucher aus dem Bio-Kanal (Besuche, Zuschauer, Ansichten). Die Zielfunktion ist eine Reihe von kommerziellen Angeboten pro Tag. Die Aufgabe besteht darin, die Dimension zu reduzieren, um die optimale einfache Strategie zu erhalten. In diesem Fall können Online- / Offline-B2B-Kanäle nicht getrennt werden: Der Markt ist dünn und Neukunden haben möglicherweise Informationen über die Marke aus beiden Kanälen. Daher ist die statistische Auswertung in diesem Fall realitätsnaher als die direkte CJM-Verfolgung.

In dem gegebenen Beispiel sind Ensemble-Abstimmungen, Binning von Ziel- und Dimensionsreduktionstechniken beteiligt. Es werden zwei Gruppen von Metriken berücksichtigt. Features und Ziel werden auf das Intervall [0,1] normiert. Es werden relativ kleine Daten mit täglicher Probenahme verwendet: vier Jahre Aufzeichnung. Webmetriken werden von der Analyseplattform über die Python-API analysiert. Verkaufsdaten werden von CRM empfangen. Die Korrelationsmatrix zeigt, dass es keine signifikante Korrelation zwischen konvertierten Angeboten und Webmetriken gibt: Eine lineare Regression kann nicht angewendet werden.



Es wird ein Ensemble nichtlinearer Abstimmungsschätzer verwendet: KNeighborsClassifier, Decision Tree, Ada Boost, Gradient Boosting, Support Vector Classifier, Naive Bayes und mehrschichtiges Perceptron mit drei verborgenen Schichten. Hyper-Tuning wird nur auf KNeighborsClassifier angewendet. Es werden lineare {High Bias} und nichtlineare {High Varianz} Modelle berücksichtigt. Modelle sind in Bezug auf Genauigkeit / Streuung vergleichbar. Kleinere Streuung bedeutet höhere Stabilität. Zunächst verwenden wir alle Metriken als Eingabefunktionen. Es ergibt sich eine Streuung der Modellgenauigkeit von 0,11 und ein Genauigkeitsmedian von 96%:



Das zweite Experiment geht davon aus, dass Metriken konsequent weggeworfen werden, um die Dimension zu verringern. Die Metrik wird ausgelöst, wenn durch das Entfernen die Genauigkeit nur minimal beeinträchtigt wird. Schließlich bleibt eine Metrik übrig - Anzahl der Sitzungen. In diesem Fall beträgt die Genauigkeit immer noch 96%, aber die Streuung der Ensemble-Modelle ist geringer: 0,01.



Schlussfolgerung: Andere Funktionen enthalten keine zusätzlichen Informationen. Der Verkehr hat die höchste Bedeutung für die Vorhersage und entspricht einem stabileren Vorhersagemodell. Das vorgeschlagene Verfahren kann bei der Entscheidungsfindung verallgemeinert werden, wenn Nichtlinearität unvermeidlich ist.

Hier wird ein gewisser Frieden des Jupyter-Codes gegeben.

Danke für Karma

Source: https://habr.com/ru/post/de458076/


All Articles