Wie kann festgestellt werden, wie viele Personen fĂŒr eine neue ErfĂŒllung eingestellt werden mĂŒssen, mit was genau sie gefĂŒllt werden sollen und wo ein bestimmtes Produkt platziert werden soll? Je gröĂer das GeschĂ€ft, desto gröĂer die Unsicherheit und desto teurer der Fehler. Das Chaos zu besiegen und die beste Lösung zu wĂ€hlen, ist eine der Aufgaben des Data Science-Teams. Und da Mathematik die Grundlage der Datenanalyse ist, beginnen wir damit.
In diesem Beitrag werden Optimierungsprobleme mit Datenunsicherheit und deren Approximation durch deterministische konvexe Probleme betrachtet. Dies ist einer der Haupttricks bei der robusten Optimierung - eine Technik, mit der Sie Optimierungsaufgaben bewĂ€ltigen können, die zu empfindlich auf Ănderungen der Eingabedaten reagieren.
Das Thema SensibilitĂ€t ist sehr wichtig. FĂŒr Aufgaben, deren QualitĂ€t schwach von Ănderungen der Daten abhĂ€ngt, ist es einfacher, die ĂŒbliche stochastische Optimierung zu verwenden. Bei Aufgaben mit hoher Empfindlichkeit fĂŒhrt dieser Ansatz jedoch zu einem schlechten Ergebnis. Es gibt viele solcher Aufgaben in den Bereichen Finanzen, Lieferkettenmanagement, Design und vielen anderen Bereichen.
Und ja, dies ist ein Beispiel fĂŒr einen Beitrag, bei dem die KomplexitĂ€t exponentiell zunimmt (MĂŒll bereits) ...
Was bedeutet es, das Optimierungsproblem zu âlösenâ?
Beginnen wir mit einer kurzen Erinnerung.
Die Optimierungsaufgabe sieht im Allgemeinen folgendermaĂen aus:
m i n x i n R n f ( x )s . t .x i n X.
Hier
f ( x ) die Zielfunktion genannt, und
X. - ein gĂŒltiger Satz.
Mit der Lösung des Optimierungsproblems meinen wir einen solchen Punkt
x â i n X. fĂŒr die es ausgefĂŒhrt wird:
f ( x ) - f ( x â ) g e q 0 , q u a d f o r a l l x i n X.
Dies ist das Standardkonzept zur Lösung des Optimierungsproblems ohne Unsicherheit.
Was ist ein Optimierungsproblem mit Unsicherheit?
Es ist Zeit, sich ĂŒber den Ursprung der Funktion zu wundern
f ( x ) und EinschrÀnkungen
X. .
Sehr nĂŒtzlich zu teilen
- strukturelle Logik des Problems (mit anderen Worten, welche Funktionen verwendet werden),
- technische EinschrÀnkungen (unabhÀngig von menschlicher Logik oder Daten),
- Parameter, die aus den Daten ausgewertet werden.
Zum Beispiel kam ein Unternehmer zu uns und zeigte das Problem der linearen Programmierung:
minx inR22,16x1+3,7x2s.t.0,973x1+2,619x2 leq3,32x1 geq0,x2 geq0
Sie sehen diese Aufgabe zum ersten Mal. Ein Mann auch (vielleicht nicht, aber in blauen Jacken ist alles so abstrakt!). Sie kennen die Bedeutung von Variablen nicht. Aber auch jetzt können wir mit viel Zuversicht sagen:
- Höchstwahrscheinlich ist die Aufgabe linear, weil sich jemand dafĂŒr entschieden hat. LinearitĂ€t ist die Struktur, die eine Person gewĂ€hlt hat.
- EinschrĂ€nkungen x1 geq0,x2 geq0 sind technisch. Das heiĂt, sie stammten aus der "Physik" und nicht aus Daten (zum Beispiel können VerkĂ€ufe nicht negativ sein).
- Spezifische Koeffizienten \ {0,973, 2,619, 3,32 \}\ {0,973, 2,619, 3,32 \} bei der Begrenzung 0,973x1+2,619x2 leq3,32 in unserem Beispiel wurden aus den Daten ausgewertet. Das heiĂt, zuerst sagte jemand, dass die Variable x1 mit Variable verbunden x2 Dann wurde gesagt, dass die Beziehung linear ist, und schlieĂlich wurden die Koeffizienten in der Kopplungsgleichung aus den Daten geschĂ€tzt. Gleiches gilt fĂŒr die Gewinnchancen. \ {2.16, 3.7 \} in der Zielfunktion.
Wenn wir ĂŒber Aufgaben mit Unsicherheit sprechen, zielen wir genau auf die Unsicherheit der aus den Daten geschĂ€tzten Parameter ab. Wir berĂŒhren nicht die technischen EinschrĂ€nkungen oder die anfĂ€ngliche Wahl der Struktur des Problems.
ZurĂŒck zu unserer Geschichte. Wir haben ein lineares Problem, jemand hat die Koeffizienten darin irgendwie geschĂ€tzt. Wenn wir in Bezug auf die Art der Koeffizienten in der Funktion Recht hatten, wurden wir tatsĂ€chlich gebeten, das Problem fĂŒr
ein Szenario der Entwicklung von Ereignissen (eine bestimmte Instanz des Problems) zu lösen.
Manchmal reicht uns das und wir lösen es einfach.
Manchmal ist es jedoch eine dumme Idee, ein Problem fĂŒr ein Szenario zu lösen (z. B. wenn die Lösung sehr empfindlich auf Datenschwankungen reagiert).
Was ist in diesem Fall zu tun und wie wird die Unsicherheit in den Daten modelliert?
Beachten Sie zunĂ€chst, dass die Datenunsicherheit immer von der Zielfunktion auf EinschrĂ€nkungen oder umgekehrt ĂŒbertragen werden kann. Wie das geht, schauen Sie unter den Schnitt.
Ăbertragung der Unsicherheit von der Zielfunktion auf EinschrĂ€nkungen oder umgekehrtOft ist es bequemer, die gesamte Unsicherheit auf einen Teil der Aufgabe zu ĂŒbertragen: die Zielfunktion oder die EinschrĂ€nkungen.
Ăbertragung der Unsicherheit von der ZielfunktionalitĂ€t auf EinschrĂ€nkungenFĂŒr jede Optimierungsaufgabe
m i n x i n R n f 0 ( x , w )s tfi(x, thetai) leq0, quad1 leqi leqkhi(x, betai)=0, quad1 leqi leqmx inX
Es ist möglich, ein Ăquivalent ohne Unsicherheit in der Zielfunktion zu konstruieren:
minx inRn,t inRtstf0(x,w) leqtfi(x, thetai) leq0, quad1 leqi leqkhi(x, betai)=0, quad1 leqi leqmx inX
Lösung
(xâ,tâ) Ă€quivalente Aufgabe enthĂ€lt eine Lösung zum Original
xâ .
Ăbertragung der Unsicherheit von EinschrĂ€nkungen auf die ZielfunktionFormal fĂŒr jede Optimierungsaufgabe mit EinschrĂ€nkungen
minx inRnf(x)s.t.x inX
man kann ein gleichwertiges Problem ohne EinschrÀnkungen konstruieren
minx inRnf(x)+IX(x)
mit Anzeigefunktion
IX(x)= beginFĂ€lle0, quadx inX+ infty, quadx notinX endFĂ€lle
Es ist klar, dass kein einziger Algorithmus eine solche Funktion verarbeiten kann, dies ist jedoch nicht erforderlich. Der nÀchste logische Schritt besteht darin, die Indikatorfunktion mit etwas Verdaulichem zu approximieren. Was genau - hÀngt von der Situation ab (dazu spÀter mehr). So werden beispielsweise die
Methoden des internen Punktes (ein Sonderfall der
Methoden der Straffunktionen ) und viele andere konstruiert.
Stochastische, Online-, robuste Optimierungs- und Produktliste
Wir können viele Szenarien der Unsicherheit haben sowie Optionen, was damit zu tun ist. Wir veranschaulichen verschiedene StandardansÀtze anhand eines einfachen Beispiels.
Ich weiĂ nicht, wie die Situation mit einem angesehenen Leser ist, aber hier bin ich verheiratet (erfolgreich) und gehe regelmĂ€Ăig zum LebensmittelgeschĂ€ft. NatĂŒrlich mit einem Blatt (gibt Unverwundbarkeit durch impulsive EinkĂ€ufe). Manchmal nicht nur zum Laden, sondern auch zum bedingten Auchan, wo es billiger ist, aber wo man weit gehen kann.
Wir werden diese Situation modellieren: Wir kamen mit einem Blatt in der Hand zum Einkaufen nach Auchan.
Achtung, die erste Frage: Wie modellieren?
Eingabe: Informationen zu den zu kaufenden Produkten und der erforderlichen Menge.
Der Einfachheit halber können wir uns die Packungsbeilage als einen ganzzahligen nicht negativen Vektor vorstellen
y inZn+ .
Als Variablen nehmen wir jeweils einen ganzzahligen nicht negativen Vektor
x inZn+ - wie viele und welche Produkte werden wir letztendlich kaufen (unsere Lösung).
Der Punkt ist klein - nehmen Sie eine Art objektive Funktion
f(x,y) , was besagt, wie sehr wir bei der Auswahl der Produkte einen Fehler gemacht haben.
Je nach Kontext kann sich die Art der Funktion Àndern, es gibt jedoch einige grundlegende Anforderungen:
- Funktion f(x,y) sollte ein Minimum haben xâ= arg minx inRnf(x,y)=y (das heiĂt, im Optimum kaufen wir genau das, was in der Packungsbeilage steht)
- Funktion f(x,y) muss konvex sein x (und vorzugsweise glatt) - um effektiv berechnen zu können min .
So erhalten wir das Problem:
minx inRnf(x,y)
Stellen Sie sich nun vor, das Blatt sei zu Hause geblieben ...
Mit einer Bemerkung sind wir mit Unsicherheit in die Welt der Aufgaben gekommen.
Was tun, wenn in der Aufgabe
minx inRnf(x,y) uns unbekannt
y ?
Die Antwort hÀngt wiederum vom Kontext ab.
Stochastische OptimierungStochastische Optimierung beinhaltet (normalerweise)
- Die Unsicherheit in den Daten ist stochastischer Natur. VollstÀndige Kenntnis der probabilistischen Verteilung nicht deterministischer Parameterwerte
- EinschrĂ€nkungen einschlieĂlich Unsicherheit sind gering
In unserem Beispiel wĂŒrden wir sagen, wenn wir es mit stochastischer Optimierung modellieren wĂŒrden
- Okay, ich weiĂ nicht, was in der Packungsbeilage geschrieben steht, aber ich gehe jetzt seit 8 Jahren mit FlugblĂ€ttern spazieren und habe genug Wissen ĂŒber die Verteilung des Vektors y
- Auch wenn ich bei der Auswahl einen Fehler mache (d. H. Mit x ), nach Hause zurĂŒckkehrend, finde ich das echte heraus y und wenn ich völlig sicher bin, gehe ich nach Pyaterochka und kaufe dort ein, wenn auch teurer.
- Jetzt werde ich einen auswĂ€hlen x Dies minimiert eine Art Aggregat aus der ursprĂŒnglichen Zielfunktion und mögliche âBuĂgelderâ fĂŒr den Fehler.
Dies wird uns zu dieser Aufgabe fĂŒhren:
minx inRnEy[f(x,y)+ psi(y,z)]s.t.x+z geqy
Beachten Sie, dass wir bei dieser Aufgabe de facto zweimal Entscheidungen treffen: Erstens die Hauptentscheidung fĂŒr den Kauf bei Auchan, fĂŒr die wir verantwortlich sind
x , dann "Fehlerkorrektur" mit
z .
Die Hauptprobleme bei diesem Ansatz sind:
- Es gibt oft keine Informationen ĂŒber die Verteilung von Parametern.
- EinschrĂ€nkungen können schwerwiegend sein (fĂŒr Aufgaben mit hohem Risiko - Tod, Ruine, Atom- oder Zombie-Apokalypse usw.)
- Es ist nicht immer möglich, âFehler zu korrigierenâ (eine Entscheidung wird einmal getroffen) oder umgekehrt, Entscheidungen werden hĂ€ufig getroffen (in diesem Fall erscheinen viele verschachtelte Integrale und es ist sehr schwierig zu zĂ€hlen).
Online-OptimierungDie Online-Optimierung ist ein Framework, das konsistente Entscheidungen untersucht. Einer der StandardansĂ€tze fĂŒr die Modellierung in diesem Rahmen sind mehrarmige Banditen, ĂŒber die bereits viele Male auf HabrĂ© geschrieben wurde.
Im Kontext unseres Spielzeugbeispiels wĂŒrden wir:
- hatte keine (und noch nie benutzte) BroschĂŒre
- und zu Hause wĂŒrden wir fĂŒr die Produkte, die wir gekauft haben, gelobt / gescholten (gleichzeitig konnten wir nur das gewĂŒnschte Set erraten)
- Die Aufgabe wÀre es, so schnell wie möglich zu lernen, wie man Lebensmittel kauft, ebenso wie ihren ehemaligen, imaginÀren Prinzen oder den besten Freund der Söhne ihrer Mutter.
Robuste OptimierungEine robuste Optimierung ist eine logische Erweiterung der Idee einer Minimax-Lösung.
Im Idealfall sollten wir jetzt eine Entscheidung treffen, die unabhĂ€ngig von den UmstĂ€nden immer akzeptabel ist. Menschen, die in der UdSSR Töpfe, BĂŒgeleisen und KĂŒhlschrĂ€nke entworfen haben, haben dies im Rahmen einer robusten Optimierung getan: Das Produkt sollte auch dann funktionieren, wenn es seit 20 Jahren als Hauptinstrument fĂŒr die Ausrottung von Mutanten verwendet wird, die nach dem Atomkrieg entstanden sind (es muss auch ĂŒberlebt werden).
AuĂerdem möchte ich, dass die Aufgabe in einen normalen Löser verschoben wird - und sie verstehen die EinschrĂ€nkungen "fĂŒr jede Implementierung einer Zufallsvariablen" nicht (wenn es nicht eine begrenzte Anzahl dieser Implementierungen gibt).
Bei dem Problem mit einer BroschĂŒre sollte die Entscheidung hier und jetzt getroffen werden und unter allen UmstĂ€nden gĂŒltig bleiben:
minx inRn,t inRts.t.f(x,y) leqt quad fĂŒralleyx geqy quad fĂŒralley
Es ist klar, dass auch in diesem Spielzeugbeispiel, wenn Sie nichts von benötigen
y , dann wird keine sinnvolle Lösung funktionieren.
Wie gehen Sie mit solchen Aufgaben um?
Erstellen einer robusten Version einer Aufgabe anhand des LP-Aufgabenbeispiels
Betrachten Sie ein lineares Optimierungsproblem mit Unsicherheit:
minx inRncTx+ds.t.Ax leqb
Parameter
beginpmatrixcT,dA,b endpmatrix wurden aus Daten abgeleitet und beinhalten Unsicherheit.
Annahme 1: Viele Werte (Implementierungen)
beginpmatrixcT,dA,b endpmatrix kann parametrisiert werden, d.h. es gibt solche
beginpmatrixcT0,d0A0,b0 endpmatrix, beginpmatrixcT1,d1A1,b1 endpmatrix, dots, beginpmatrixcTk,dkAk,bk endpmatrix dass jede Datenimplementierung
beginpmatrixcT,dA,b endpmatrix liegt im Set:
\ begin {pmatrix} c ^ T, d \\ A, b \ end {pmatrix} \ in U = \ left \ {\ begin {pmatrix} c_0 ^ T, d_0 \\ A_0, b_0 \ end {pmatrix} + \ sum_ {i = 1} ^ k \ zeta_i \ begin {pmatrix} c_i ^ T, d_i \\ A_i, b_i \ end {pmatrix} | \ quad \ zeta \ in Q \ Teilmenge R ^ k \ right \}
Hier
beginpmatrixcT0,d0A0,b0 endpmatrix werden als "nominelle" Daten bezeichnet, und
beginpmatrixcTi,diAi,bi endpmatrix quad(1 leqi leqk) - "Verschiebungen".
Mini BeispielIch möchte ihre Bedeutung anhand eines Modellbeispiels aus dem Finanzbereich ein wenig verdeutlichen: das Problem der Auswahl des optimalen Wertpapierportfolios. Angenommen, Sie möchten investieren. Jetzt an einer verfĂŒgbaren Börse gelistet
n Aktien, und Sie mĂŒssen verstehen, wie Sie Ihr Kapital in diese Wertpapiere verteilen (investieren), um Ihr Einkommen zu maximieren und gleichzeitig das Risiko zu begrenzen. Eines der ersten Modelle zur Lösung dieses Problems (Markowitz-Modell) schlug Folgendes vor:
- Sammeln Sie historische Daten zum Ertrag eines Wertpapiers: rti= fracStiâStâ1iStâ1i wo Sti Ist der Preis eines Vermögenswerts i zur Zeit t .
- Finden Sie empirische Durchschnittsrenditen fĂŒr Wertpapiere hatri= frac1T sumTt=1rti und empirische Matrix der Ertragskovarianz Sigma= |cov(ri,rj) |i,j
- Lösen Sie das Optimierungsproblem
maxx inRn+xT hatrst frac12xT Sigmax leq sigma sumni=1xi leq1
Die Lösung des Problems ist die optimale Verteilung (Anteil) des Kapitals an Wertpapieren.
TatsÀchlich maximieren wir die erwartete Rendite oder suchen das optimale Portfolio
fĂŒr ein Szenario - den Fall, dass die Realisierung
zufĂ€lliger (!) Renditen mit dem empirischen Durchschnitt ĂŒbereinstimmt.
Im Rahmen der Parametrierung
r genau
hatr dient als "nominelle" Daten.
Wir wissen bereits, dass alle Unsicherheiten in Bezug auf das Problem in den EinschrÀnkungen beseitigt werden können. Lass es uns tun.
Wir bekommen das Problem
minx inRn,t inRtstcTx+d leqt, quad forall beginpmatrixcT,d endpmatrix inUAx leqb, quad forall beginpmatrixA,b endpmatrix inU
Robuste Version der Aufgabe
Jetzt ist die Zeit fĂŒr einen der coolsten Tricks bei der robusten Optimierung gekommen - wie man von einer unendlichen Anzahl von EinschrĂ€nkungen zu einer endlichen Menge guter EinschrĂ€nkungen ĂŒbergeht.
Betrachten Sie zunÀchst ein einfaches Beispiel, wenn
Q = \ {\ zeta \ in R ^ k | \ | \ zeta \ | _2 \ leq 1 \}
Alle EinschrÀnkungen im System
cTx+d leqt, quad forall beginpmatrixcT,d endpmatrix inUAx leqb, quad forall beginpmatrixA,b endpmatrix inU
der gleiche Typ - es sind nur lineare Ungleichungen. Lerne mit einem zu arbeiten - lerne mit jedem zu arbeiten.
Daher betrachten wir eine EinschrÀnkung des Ungleichheitstyps:
a ^ Tx \ leq b \ quad \ forall (a, b) \ in U = \ {(a_0, b_0) + \ sum_ {i = 1} ^ k \ zeta_i \ cdot (a_i, b_i) | \ quad \ zeta \ in Q \} \\ (a_0 + \ sum_ {i = 1} ^ k \ zeta_i a_i) ^ Tx \ leq b_0 + \ sum_ {i = 1} ^ k \ zeta_i b_i \ quad \ forall \ zeta \ in Q \\ \ sum_ {i = 1} ^ k \ zeta_i \ cdot (a_i ^ T x - b_i) \ leq b_0 - a_0 ^ Tx \ quad \ forall \ zeta \ in Q \\ \ max _ {\ zeta \ in Q} \ sum_ {i = 1} ^ k \ zeta_i \ cdot (a_i ^ T x - b_i) \ leq b_0 - a_0 ^ Tx
Lassen Sie mich erklÀren, was passiert ist.
Zuerst haben wir alle Teile mit Unsicherheit auf die linke Seite der Ungleichung ĂŒbertragen;
zeta .
Danach haben wir uns den schlimmsten Fall angesehen (fĂŒr jeden
x er ist sein).
Als Ergebnis haben wir folgende Aufzeichnung erhalten:
g(x)=max zeta inQf(x, zeta) leqb0âaT0x
.
Der nÀchste Schritt besteht darin, eine explizite Funktion zu schreiben
g(x) . Dazu reicht es aus, das Optimierungsproblem durch zu lösen
zeta und ersetzen Sie das Optimum
zetaâ ::
max | zeta |2 leq1 sumki=1 zetai(aTixâbi)= sqrt sumki=1(aTixâbi)2
was zu Ungleichheit fĂŒhrt:
sqrt sumki=1(aTixâbi)2+aT0x leqb0
Beachten Sie, dass die resultierende Ungleichung konvex und beliebig ist
x Ihn zu befriedigen befriedigt das Original
aTx leqb fĂŒr jede Implementierung
(a,b) inU ...
EinschrÀnkung
sqrt sumki=1(aTixâbi)2+aT0x leqb0 wird die robuste Version der EinschrĂ€nkung genannt
aTx leqb quad forall(a,b) inU .
Dies ist eines der Hauptarbeitspferde bei der robusten Optimierung - die Approximation von WahrscheinlichkeitsbeschrÀnkungen durch eine endliche Menge konvexer BeschrÀnkungen.
Was tun mit komplexeren (nichtlinearen) EinschrÀnkungen?
Erstellen robuster Versionen von EinschrÀnkungen mithilfe der konischen DualitÀt
Viele nichtlineare Standardbedingungen können in einer konischen Form (d. H. In der Form) dargestellt werden
Axe+b inK wo
K ist ein geschlossener konvexer Kegel):
- Nicht-NegativitÀt X geq0 quad leftrightarrow quadx inRn+
- NormbeschrÀnkungen \ | x \ | _p \ leq p \ quad \ leftrightarrow \ quad \ begin {pmatrix} x \\ p \ end {pmatrix} \ in K_p ^ n = \ left \ {(x, t) \ in R ^ n \ times R_ + | \ quad \ | x \ | _p \ leq t \ right \}
- EinschrĂ€nkungen fĂŒr die positive Bestimmtheit der Matrix x1F1+ dotsxnFn+G succeq0
ZurĂŒck zu robusten EinschrĂ€nkungen.
Angenommen, das Optimierungsproblem in Bezug auf
zeta schaffte es, auf eine konische Form reduziert zu werden
max zeta sumki=1 zetai(aTixâbi)s.tC zeta+d inK
Wir konstruieren ein Dual fĂŒr dieses Problem.
Vor einiger Zeit habe ich einen
Beitrag ĂŒber konische DualitĂ€t veröffentlicht , um der Technik in diesem Beitrag etwas weniger Aufmerksamkeit zu widmen.
min lambda lambdaTdstCT lambda+ beginpmatrixaT1xâb1 dotsaTkxâbk endpmatrix=0k lambda inKâ
Jetzt liegt es an der kleinen Sache - dem schwachen DualitÀtssatz:
\ max _ {[\ zeta: \ quad C \ zeta + d \ in K]} \ sum_ {i = 1} ^ k \ zeta_i (a_i ^ Tx-b_i) \ leq \ min _ {\ lambda \ in G} \ lambda ^ Td \\ wobei \\ G = \ left \ {\ lambda | \ quad C ^ T \ lambda + \ begin {pmatrix} a_1 ^ Tx - b_1 \\ \ dots \\ a_k ^ Tx - b_k \ end {pmatrix} = 0_k; \ quad \ lambda \ in K ^ * \ right \}
Daher als robuste AnnÀherung an die Anfangsbedingung
aTx leqb, quad(a,b) inU EinschrÀnkung kann verwendet werden
\ lambda ^ Td \ leq b_0 - a_0 ^ Tx \\ G = \ left \ {\ lambda | \ quad C ^ T \ lambda + \ begin {pmatrix} a_1 ^ Tx - b_1 \\ \ dots \\ a_k ^ Tx - b_k \ end {pmatrix} = 0_k; \ quad \ lambda \ in K ^ * \ right \}
wo
lambda gleiche Variable wie
x .
Deshalb haben wir eine robuste EinschrĂ€nkung fĂŒr die ursprĂŒngliche Ungleichung erstellt.
Fazit
Wir untersuchten die Technik der Approximation schlechter (stochastischer) EinschrĂ€nkungen durch eine Reihe guter konvexer. Dies kann beispielsweise nĂŒtzlich sein, wenn:
- Sie möchten keine Algorithmen selbst schreiben, aber der von Ihnen verwendete Solver weià nicht, wie er mit WahrscheinlichkeitsbeschrÀnkungen arbeiten soll.
- Es gibt ein Problem mit stochastischen Parametern, wÀhrend das Optimum sehr empfindlich auf Schwankungen in den Daten reagiert.
- Und natĂŒrlich Aufgaben mit Unsicherheit, bei denen alle EinschrĂ€nkungen streng sind (der Preis des Fehlers ist zu hoch).