Eine EinfĂŒhrung in die robuste Optimierung [... und eine kleine Einkaufsliste, die ich vergessen habe ...]

Wie kann festgestellt werden, wie viele Personen fĂŒr eine neue ErfĂŒllung eingestellt werden mĂŒssen, mit was genau sie gefĂŒllt werden sollen und wo ein bestimmtes Produkt platziert werden soll? Je grĂ¶ĂŸer das GeschĂ€ft, desto grĂ¶ĂŸer die Unsicherheit und desto teurer der Fehler. Das Chaos zu besiegen und die beste Lösung zu wĂ€hlen, ist eine der Aufgaben des Data Science-Teams. Und da Mathematik die Grundlage der Datenanalyse ist, beginnen wir damit.

In diesem Beitrag werden Optimierungsprobleme mit Datenunsicherheit und deren Approximation durch deterministische konvexe Probleme betrachtet. Dies ist einer der Haupttricks bei der robusten Optimierung - eine Technik, mit der Sie Optimierungsaufgaben bewĂ€ltigen können, die zu empfindlich auf Änderungen der Eingabedaten reagieren.

Das Thema SensibilitĂ€t ist sehr wichtig. FĂŒr Aufgaben, deren QualitĂ€t schwach von Änderungen der Daten abhĂ€ngt, ist es einfacher, die ĂŒbliche stochastische Optimierung zu verwenden. Bei Aufgaben mit hoher Empfindlichkeit fĂŒhrt dieser Ansatz jedoch zu einem schlechten Ergebnis. Es gibt viele solcher Aufgaben in den Bereichen Finanzen, Lieferkettenmanagement, Design und vielen anderen Bereichen.

Und ja, dies ist ein Beispiel fĂŒr einen Beitrag, bei dem die KomplexitĂ€t exponentiell zunimmt (MĂŒll bereits) ...

Was bedeutet es, das Optimierungsproblem zu „lösen“?


Beginnen wir mit einer kurzen Erinnerung.

Die Optimierungsaufgabe sieht im Allgemeinen folgendermaßen aus:

 m i n x i n R n  f ( x )s . t .x i n X. 



Hier f ( x ) die Zielfunktion genannt, und X. - ein gĂŒltiger Satz.

Mit der Lösung des Optimierungsproblems meinen wir einen solchen Punkt x ∗ i n X.  fĂŒr die es ausgefĂŒhrt wird:

f ( x ) - f ( x ∗ ) g e q 0 , q u a d f o r a l l x i n X.    


Dies ist das Standardkonzept zur Lösung des Optimierungsproblems ohne Unsicherheit.

Was ist ein Optimierungsproblem mit Unsicherheit?


Es ist Zeit, sich ĂŒber den Ursprung der Funktion zu wundern f ( x ) und EinschrĂ€nkungen X. .

Sehr nĂŒtzlich zu teilen

  • strukturelle Logik des Problems (mit anderen Worten, welche Funktionen verwendet werden),
  • technische EinschrĂ€nkungen (unabhĂ€ngig von menschlicher Logik oder Daten),
  • Parameter, die aus den Daten ausgewertet werden.

Zum Beispiel kam ein Unternehmer zu uns und zeigte das Problem der linearen Programmierung:

 minx inR22,16x1+3,7x2s.t.0,973x1+2,619x2 leq3,32x1 geq0,x2 geq0



Sie sehen diese Aufgabe zum ersten Mal. Ein Mann auch (vielleicht nicht, aber in blauen Jacken ist alles so abstrakt!). Sie kennen die Bedeutung von Variablen nicht. Aber auch jetzt können wir mit viel Zuversicht sagen:

  1. Höchstwahrscheinlich ist die Aufgabe linear, weil sich jemand dafĂŒr entschieden hat. LinearitĂ€t ist die Struktur, die eine Person gewĂ€hlt hat.
  2. EinschrĂ€nkungen x1 geq0,x2 geq0 sind technisch. Das heißt, sie stammten aus der "Physik" und nicht aus Daten (zum Beispiel können VerkĂ€ufe nicht negativ sein).
  3. Spezifische Koeffizienten \ {0,973, 2,619, 3,32 \}\ {0,973, 2,619, 3,32 \} bei der Begrenzung 0,973x1+2,619x2 leq3,32 in unserem Beispiel wurden aus den Daten ausgewertet. Das heißt, zuerst sagte jemand, dass die Variable x1 mit Variable verbunden x2 Dann wurde gesagt, dass die Beziehung linear ist, und schließlich wurden die Koeffizienten in der Kopplungsgleichung aus den Daten geschĂ€tzt. Gleiches gilt fĂŒr die Gewinnchancen. \ {2.16, 3.7 \} in der Zielfunktion.

Wenn wir ĂŒber Aufgaben mit Unsicherheit sprechen, zielen wir genau auf die Unsicherheit der aus den Daten geschĂ€tzten Parameter ab. Wir berĂŒhren nicht die technischen EinschrĂ€nkungen oder die anfĂ€ngliche Wahl der Struktur des Problems.

ZurĂŒck zu unserer Geschichte. Wir haben ein lineares Problem, jemand hat die Koeffizienten darin irgendwie geschĂ€tzt. Wenn wir in Bezug auf die Art der Koeffizienten in der Funktion Recht hatten, wurden wir tatsĂ€chlich gebeten, das Problem fĂŒr ein Szenario der Entwicklung von Ereignissen (eine bestimmte Instanz des Problems) zu lösen.

Manchmal reicht uns das und wir lösen es einfach.

Manchmal ist es jedoch eine dumme Idee, ein Problem fĂŒr ein Szenario zu lösen (z. B. wenn die Lösung sehr empfindlich auf Datenschwankungen reagiert).

Was ist in diesem Fall zu tun und wie wird die Unsicherheit in den Daten modelliert?

Beachten Sie zunĂ€chst, dass die Datenunsicherheit immer von der Zielfunktion auf EinschrĂ€nkungen oder umgekehrt ĂŒbertragen werden kann. Wie das geht, schauen Sie unter den Schnitt.

Übertragung der Unsicherheit von der Zielfunktion auf EinschrĂ€nkungen oder umgekehrt
Oft ist es bequemer, die gesamte Unsicherheit auf einen Teil der Aufgabe zu ĂŒbertragen: die Zielfunktion oder die EinschrĂ€nkungen.

Übertragung der Unsicherheit von der ZielfunktionalitĂ€t auf EinschrĂ€nkungen

FĂŒr jede Optimierungsaufgabe

 m i n x i n R n  f 0 ( x , w )s tfi(x, thetai) leq0, quad1 leqi leqkhi(x, betai)=0, quad1 leqi leqmx inX



Es ist möglich, ein Äquivalent ohne Unsicherheit in der Zielfunktion zu konstruieren:

 minx inRn,t inRtstf0(x,w) leqtfi(x, thetai) leq0, quad1 leqi leqkhi(x, betai)=0, quad1 leqi leqmx inX



Lösung (x∗,t∗) Ă€quivalente Aufgabe enthĂ€lt eine Lösung zum Original x∗ .

Übertragung der Unsicherheit von EinschrĂ€nkungen auf die Zielfunktion

Formal fĂŒr jede Optimierungsaufgabe mit EinschrĂ€nkungen

 minx inRnf(x)s.t.x inX



man kann ein gleichwertiges Problem ohne EinschrÀnkungen konstruieren

 minx inRnf(x)+IX(x)



mit Anzeigefunktion

IX(x)= beginFĂ€lle0, quadx inX+ infty, quadx notinX endFĂ€lle



Es ist klar, dass kein einziger Algorithmus eine solche Funktion verarbeiten kann, dies ist jedoch nicht erforderlich. Der nÀchste logische Schritt besteht darin, die Indikatorfunktion mit etwas Verdaulichem zu approximieren. Was genau - hÀngt von der Situation ab (dazu spÀter mehr). So werden beispielsweise die Methoden des internen Punktes (ein Sonderfall der Methoden der Straffunktionen ) und viele andere konstruiert.


Stochastische, Online-, robuste Optimierungs- und Produktliste


Wir können viele Szenarien der Unsicherheit haben sowie Optionen, was damit zu tun ist. Wir veranschaulichen verschiedene StandardansÀtze anhand eines einfachen Beispiels.

Ich weiß nicht, wie die Situation mit einem angesehenen Leser ist, aber hier bin ich verheiratet (erfolgreich) und gehe regelmĂ€ĂŸig zum LebensmittelgeschĂ€ft. NatĂŒrlich mit einem Blatt (gibt Unverwundbarkeit durch impulsive EinkĂ€ufe). Manchmal nicht nur zum Laden, sondern auch zum bedingten Auchan, wo es billiger ist, aber wo man weit gehen kann.

Wir werden diese Situation modellieren: Wir kamen mit einem Blatt in der Hand zum Einkaufen nach Auchan.

Achtung, die erste Frage: Wie modellieren?

Eingabe: Informationen zu den zu kaufenden Produkten und der erforderlichen Menge.

Der Einfachheit halber können wir uns die Packungsbeilage als einen ganzzahligen nicht negativen Vektor vorstellen y inZn+ .

Als Variablen nehmen wir jeweils einen ganzzahligen nicht negativen Vektor x inZn+ - wie viele und welche Produkte werden wir letztendlich kaufen (unsere Lösung).

Der Punkt ist klein - nehmen Sie eine Art objektive Funktion f(x,y) , was besagt, wie sehr wir bei der Auswahl der Produkte einen Fehler gemacht haben.

Je nach Kontext kann sich die Art der Funktion Àndern, es gibt jedoch einige grundlegende Anforderungen:

  • Funktion f(x,y) sollte ein Minimum haben x∗= arg minx inRnf(x,y)=y (das heißt, im Optimum kaufen wir genau das, was in der Packungsbeilage steht)
  • Funktion f(x,y) muss konvex sein x (und vorzugsweise glatt) - um effektiv berechnen zu können min .

So erhalten wir das Problem:

minx inRnf(x,y)



Stellen Sie sich nun vor, das Blatt sei zu Hause geblieben ...

Mit einer Bemerkung sind wir mit Unsicherheit in die Welt der Aufgaben gekommen.

Was tun, wenn in der Aufgabe minx inRnf(x,y) uns unbekannt y ?

Die Antwort hÀngt wiederum vom Kontext ab.

Stochastische Optimierung

Stochastische Optimierung beinhaltet (normalerweise)

  • Die Unsicherheit in den Daten ist stochastischer Natur. VollstĂ€ndige Kenntnis der probabilistischen Verteilung nicht deterministischer Parameterwerte
  • EinschrĂ€nkungen einschließlich Unsicherheit sind gering

In unserem Beispiel wĂŒrden wir sagen, wenn wir es mit stochastischer Optimierung modellieren wĂŒrden

  • Okay, ich weiß nicht, was in der Packungsbeilage geschrieben steht, aber ich gehe jetzt seit 8 Jahren mit FlugblĂ€ttern spazieren und habe genug Wissen ĂŒber die Verteilung des Vektors y
  • Auch wenn ich bei der Auswahl einen Fehler mache (d. H. Mit x ), nach Hause zurĂŒckkehrend, finde ich das echte heraus y und wenn ich völlig sicher bin, gehe ich nach Pyaterochka und kaufe dort ein, wenn auch teurer.
  • Jetzt werde ich einen auswĂ€hlen x Dies minimiert eine Art Aggregat aus der ursprĂŒnglichen Zielfunktion und mögliche „Bußgelder“ fĂŒr den Fehler.

Dies wird uns zu dieser Aufgabe fĂŒhren:

 minx inRnEy[f(x,y)+ psi(y,z)]s.t.x+z geqy



Beachten Sie, dass wir bei dieser Aufgabe de facto zweimal Entscheidungen treffen: Erstens die Hauptentscheidung fĂŒr den Kauf bei Auchan, fĂŒr die wir verantwortlich sind x , dann "Fehlerkorrektur" mit z .

Die Hauptprobleme bei diesem Ansatz sind:

  • Es gibt oft keine Informationen ĂŒber die Verteilung von Parametern.
  • EinschrĂ€nkungen können schwerwiegend sein (fĂŒr Aufgaben mit hohem Risiko - Tod, Ruine, Atom- oder Zombie-Apokalypse usw.)
  • Es ist nicht immer möglich, „Fehler zu korrigieren“ (eine Entscheidung wird einmal getroffen) oder umgekehrt, Entscheidungen werden hĂ€ufig getroffen (in diesem Fall erscheinen viele verschachtelte Integrale und es ist sehr schwierig zu zĂ€hlen).

Online-Optimierung

Die Online-Optimierung ist ein Framework, das konsistente Entscheidungen untersucht. Einer der StandardansĂ€tze fĂŒr die Modellierung in diesem Rahmen sind mehrarmige Banditen, ĂŒber die bereits viele Male auf HabrĂ© geschrieben wurde.

Im Kontext unseres Spielzeugbeispiels wĂŒrden wir:

  • hatte keine (und noch nie benutzte) BroschĂŒre
  • und zu Hause wĂŒrden wir fĂŒr die Produkte, die wir gekauft haben, gelobt / gescholten (gleichzeitig konnten wir nur das gewĂŒnschte Set erraten)
  • Die Aufgabe wĂ€re es, so schnell wie möglich zu lernen, wie man Lebensmittel kauft, ebenso wie ihren ehemaligen, imaginĂ€ren Prinzen oder den besten Freund der Söhne ihrer Mutter.

Robuste Optimierung

Eine robuste Optimierung ist eine logische Erweiterung der Idee einer Minimax-Lösung.

Im Idealfall sollten wir jetzt eine Entscheidung treffen, die unabhĂ€ngig von den UmstĂ€nden immer akzeptabel ist. Menschen, die in der UdSSR Töpfe, BĂŒgeleisen und KĂŒhlschrĂ€nke entworfen haben, haben dies im Rahmen einer robusten Optimierung getan: Das Produkt sollte auch dann funktionieren, wenn es seit 20 Jahren als Hauptinstrument fĂŒr die Ausrottung von Mutanten verwendet wird, die nach dem Atomkrieg entstanden sind (es muss auch ĂŒberlebt werden).

Außerdem möchte ich, dass die Aufgabe in einen normalen Löser verschoben wird - und sie verstehen die EinschrĂ€nkungen "fĂŒr jede Implementierung einer Zufallsvariablen" nicht (wenn es nicht eine begrenzte Anzahl dieser Implementierungen gibt).

Bei dem Problem mit einer BroschĂŒre sollte die Entscheidung hier und jetzt getroffen werden und unter allen UmstĂ€nden gĂŒltig bleiben:

 minx inRn,t inRts.t.f(x,y) leqt quad fĂŒralleyx geqy quad fĂŒralley



Es ist klar, dass auch in diesem Spielzeugbeispiel, wenn Sie nichts von benötigen y , dann wird keine sinnvolle Lösung funktionieren.

Wie gehen Sie mit solchen Aufgaben um?

Erstellen einer robusten Version einer Aufgabe anhand des LP-Aufgabenbeispiels


Betrachten Sie ein lineares Optimierungsproblem mit Unsicherheit:

 minx inRncTx+ds.t.Ax leqb



Parameter  beginpmatrixcT,dA,b endpmatrix wurden aus Daten abgeleitet und beinhalten Unsicherheit.

Annahme 1: Viele Werte (Implementierungen)  beginpmatrixcT,dA,b endpmatrix kann parametrisiert werden, d.h. es gibt solche  beginpmatrixcT0,d0A0,b0 endpmatrix, beginpmatrixcT1,d1A1,b1 endpmatrix, dots, beginpmatrixcTk,dkAk,bk endpmatrix dass jede Datenimplementierung  beginpmatrixcT,dA,b endpmatrix liegt im Set:

\ begin {pmatrix} c ^ T, d \\ A, b \ end {pmatrix} \ in U = \ left \ {\ begin {pmatrix} c_0 ^ T, d_0 \\ A_0, b_0 \ end {pmatrix} + \ sum_ {i = 1} ^ k \ zeta_i \ begin {pmatrix} c_i ^ T, d_i \\ A_i, b_i \ end {pmatrix} | \ quad \ zeta \ in Q \ Teilmenge R ^ k \ right \}



Hier  beginpmatrixcT0,d0A0,b0 endpmatrix werden als "nominelle" Daten bezeichnet, und  beginpmatrixcTi,diAi,bi endpmatrix quad(1 leqi leqk) - "Verschiebungen".

Mini Beispiel
Ich möchte ihre Bedeutung anhand eines Modellbeispiels aus dem Finanzbereich ein wenig verdeutlichen: das Problem der Auswahl des optimalen Wertpapierportfolios. Angenommen, Sie möchten investieren. Jetzt an einer verfĂŒgbaren Börse gelistet n Aktien, und Sie mĂŒssen verstehen, wie Sie Ihr Kapital in diese Wertpapiere verteilen (investieren), um Ihr Einkommen zu maximieren und gleichzeitig das Risiko zu begrenzen. Eines der ersten Modelle zur Lösung dieses Problems (Markowitz-Modell) schlug Folgendes vor:

  1. Sammeln Sie historische Daten zum Ertrag eines Wertpapiers: rti= fracSti−St−1iSt−1i wo Sti Ist der Preis eines Vermögenswerts i zur Zeit t .
  2. Finden Sie empirische Durchschnittsrenditen fĂŒr Wertpapiere  hatri= frac1T sumTt=1rti und empirische Matrix der Ertragskovarianz  Sigma= |cov(ri,rj) |i,j
  3. Lösen Sie das Optimierungsproblem

     maxx inRn+xT hatrst frac12xT Sigmax leq sigma sumni=1xi leq1


Die Lösung des Problems ist die optimale Verteilung (Anteil) des Kapitals an Wertpapieren.

TatsĂ€chlich maximieren wir die erwartete Rendite oder suchen das optimale Portfolio fĂŒr ein Szenario - den Fall, dass die Realisierung zufĂ€lliger (!) Renditen mit dem empirischen Durchschnitt ĂŒbereinstimmt.

Im Rahmen der Parametrierung r genau  hatr dient als "nominelle" Daten.


Wir wissen bereits, dass alle Unsicherheiten in Bezug auf das Problem in den EinschrÀnkungen beseitigt werden können. Lass es uns tun.

Wir bekommen das Problem

 minx inRn,t inRtstcTx+d leqt, quad forall beginpmatrixcT,d endpmatrix inUAx leqb, quad forall beginpmatrixA,b endpmatrix inU



Robuste Version der Aufgabe


Jetzt ist die Zeit fĂŒr einen der coolsten Tricks bei der robusten Optimierung gekommen - wie man von einer unendlichen Anzahl von EinschrĂ€nkungen zu einer endlichen Menge guter EinschrĂ€nkungen ĂŒbergeht.

Betrachten Sie zunÀchst ein einfaches Beispiel, wenn

Q = \ {\ zeta \ in R ^ k | \ | \ zeta \ | _2 \ leq 1 \}



Alle EinschrÀnkungen im System

cTx+d leqt, quad forall beginpmatrixcT,d endpmatrix inUAx leqb, quad forall beginpmatrixA,b endpmatrix inU


der gleiche Typ - es sind nur lineare Ungleichungen. Lerne mit einem zu arbeiten - lerne mit jedem zu arbeiten.

Daher betrachten wir eine EinschrÀnkung des Ungleichheitstyps:

a ^ Tx \ leq b \ quad \ forall (a, b) \ in U = \ {(a_0, b_0) + \ sum_ {i = 1} ^ k \ zeta_i \ cdot (a_i, b_i) | \ quad \ zeta \ in Q \} \\ (a_0 + \ sum_ {i = 1} ^ k \ zeta_i a_i) ^ Tx \ leq b_0 + \ sum_ {i = 1} ^ k \ zeta_i b_i \ quad \ forall \ zeta \ in Q \\ \ sum_ {i = 1} ^ k \ zeta_i \ cdot (a_i ^ T x - b_i) \ leq b_0 - a_0 ^ Tx \ quad \ forall \ zeta \ in Q \\ \ max _ {\ zeta \ in Q} \ sum_ {i = 1} ^ k \ zeta_i \ cdot (a_i ^ T x - b_i) \ leq b_0 - a_0 ^ Tx



Lassen Sie mich erklÀren, was passiert ist.

Zuerst haben wir alle Teile mit Unsicherheit auf die linke Seite der Ungleichung ĂŒbertragen;  zeta .
Danach haben wir uns den schlimmsten Fall angesehen (fĂŒr jeden x er ist sein).
Als Ergebnis haben wir folgende Aufzeichnung erhalten:

g(x)=max zeta inQf(x, zeta) leqb0−aT0x

.

Der nĂ€chste Schritt besteht darin, eine explizite Funktion zu schreiben g(x) . Dazu reicht es aus, das Optimierungsproblem durch zu lösen  zeta und ersetzen Sie das Optimum  zeta∗ ::

 max | zeta |2 leq1 sumki=1 zetai(aTix−bi)= sqrt sumki=1(aTix−bi)2


was zu Ungleichheit fĂŒhrt:

 sqrt sumki=1(aTix−bi)2+aT0x leqb0



Beachten Sie, dass die resultierende Ungleichung konvex und beliebig ist x Ihn zu befriedigen befriedigt das Original aTx leqb fĂŒr jede Implementierung (a,b) inU ...

EinschrĂ€nkung  sqrt sumki=1(aTix−bi)2+aT0x leqb0 wird die robuste Version der EinschrĂ€nkung genannt aTx leqb quad forall(a,b) inU .

Dies ist eines der Hauptarbeitspferde bei der robusten Optimierung - die Approximation von WahrscheinlichkeitsbeschrÀnkungen durch eine endliche Menge konvexer BeschrÀnkungen.

Was tun mit komplexeren (nichtlinearen) EinschrÀnkungen?

Erstellen robuster Versionen von EinschrÀnkungen mithilfe der konischen DualitÀt


Viele nichtlineare Standardbedingungen können in einer konischen Form (d. H. In der Form) dargestellt werden Axe+b inK wo K ist ein geschlossener konvexer Kegel):

  • Nicht-NegativitĂ€t X geq0 quad leftrightarrow quadx inRn+
  • NormbeschrĂ€nkungen \ | x \ | _p \ leq p \ quad \ leftrightarrow \ quad \ begin {pmatrix} x \\ p \ end {pmatrix} \ in K_p ^ n = \ left \ {(x, t) \ in R ^ n \ times R_ + | \ quad \ | x \ | _p \ leq t \ right \}
  • EinschrĂ€nkungen fĂŒr die positive Bestimmtheit der Matrix x1F1+ dotsxnFn+G succeq0

ZurĂŒck zu robusten EinschrĂ€nkungen.

Angenommen, das Optimierungsproblem in Bezug auf  zeta schaffte es, auf eine konische Form reduziert zu werden

 max zeta sumki=1 zetai(aTix−bi)s.tC zeta+d inK



Wir konstruieren ein Dual fĂŒr dieses Problem.

Vor einiger Zeit habe ich einen Beitrag ĂŒber konische DualitĂ€t veröffentlicht , um der Technik in diesem Beitrag etwas weniger Aufmerksamkeit zu widmen.

 min lambda lambdaTdstCT lambda+ beginpmatrixaT1x−b1 dotsaTkx−bk endpmatrix=0k lambda inK∗



Jetzt liegt es an der kleinen Sache - dem schwachen DualitÀtssatz:

\ max _ {[\ zeta: \ quad C \ zeta + d \ in K]} \ sum_ {i = 1} ^ k \ zeta_i (a_i ^ Tx-b_i) \ leq \ min _ {\ lambda \ in G} \ lambda ^ Td \\ wobei \\ G = \ left \ {\ lambda | \ quad C ^ T \ lambda + \ begin {pmatrix} a_1 ^ Tx - b_1 \\ \ dots \\ a_k ^ Tx - b_k \ end {pmatrix} = 0_k; \ quad \ lambda \ in K ^ * \ right \}



Daher als robuste AnnĂ€herung an die Anfangsbedingung aTx leqb, quad(a,b) inU EinschrĂ€nkung kann verwendet werden

\ lambda ^ Td \ leq b_0 - a_0 ^ Tx \\ G = \ left \ {\ lambda | \ quad C ^ T \ lambda + \ begin {pmatrix} a_1 ^ Tx - b_1 \\ \ dots \\ a_k ^ Tx - b_k \ end {pmatrix} = 0_k; \ quad \ lambda \ in K ^ * \ right \}


wo  lambda gleiche Variable wie x .

Deshalb haben wir eine robuste EinschrĂ€nkung fĂŒr die ursprĂŒngliche Ungleichung erstellt.

Fazit


Wir untersuchten die Technik der Approximation schlechter (stochastischer) EinschrĂ€nkungen durch eine Reihe guter konvexer. Dies kann beispielsweise nĂŒtzlich sein, wenn:

  • Sie möchten keine Algorithmen selbst schreiben, aber der von Ihnen verwendete Solver weiß nicht, wie er mit WahrscheinlichkeitsbeschrĂ€nkungen arbeiten soll.
  • Es gibt ein Problem mit stochastischen Parametern, wĂ€hrend das Optimum sehr empfindlich auf Schwankungen in den Daten reagiert.
  • Und natĂŒrlich Aufgaben mit Unsicherheit, bei denen alle EinschrĂ€nkungen streng sind (der Preis des Fehlers ist zu hoch).

Source: https://habr.com/ru/post/de436342/


All Articles