Optimierung: Einführung in mathematische Theorie und MethodenSpringer-Verlag, 21 juin 2019 - 520 pages Dieses Buch gibt eine Einführung in die Theorie und Methoden der stetigen Optimierung mit einigen Anwendungen auch im Bereich der diskreten Optimierung. Bei der linearen Optimierung werden zunächst die klassische Simplexmethode und die neueren Innere Punkte Methoden vorgestellt. Es werden dann konvexe und glatte nichtlineare Probleme sowie semidefinite lineare Programme betrachtet, wobei stets das Verständnis der Optimalitätsbedingungen benutzt wird, um die Lösungsverfahren, darunter auch Innere-Punkte-Methoden, vorzustellen. Zu einigen praktischen Anwendungen werden ausführliche Beispiele beschrieben. |
Table des matières
1 | |
7 | |
9 | |
23 | |
4 InnerePunkteMethoden für Lineare Programme | 74 |
Anwendungen Netzwerke | 117 |
Teil II Nichtlineare Minimierung I | 140 |
6 Minimierung ohne Nebenbedingungen | 143 |
Teil IV Nichtlineare Minimierung II | 310 |
10 Projektionsverfahren | 311 |
11 Penalty Funktionen und die erweiterte Lagrangefunktion | 335 |
12 Barrieremethoden und primalduale Verfahren | 363 |
13 SQPVerfahren | 371 |
14 Global konvergente Verfahren | 384 |
15 InnerePunkteVerfahren für konvexe Programme | 401 |
16 Semidefinite Programme | 441 |
Teil III Optimalitätsbedingungen | 234 |
7 Konvexität und Trennungssätze | 237 |
8 Optimalitätsbedingungen für konvexe Optimierungsprobleme | 257 |
9 Optimalitätsbedingungen für allgemeine Optimierungsprobleme | 278 |
17 Direkte Suchverfahren bei mehreren Variablen | 495 |
505 | |
514 | |
Autres éditions - Tout afficher
Optimierung: Einführung in mathematische Theorie und Methoden Florian Jarre,Josef Stoer Aucun aperçu disponible - 2019 |
Expressions et termes fréquents
Ableitungen Abschn affine Algorithmus Ansatz Anwendungen äquivalent Barrierefunktion Basislösung Bedingung Beispiel Berechnung besitzt Beweis cg-Verfahren Cholesky-Zerlegung daher definiert Definition Df x)s Diagonalmatrix duale erfüllt f¨ur Falls folgende folgt Form gegeben gibt gilt Gleichungen Gleichungssystem Gradienten Graphen groß Häufungspunkt heißt Hessematrix Hyperebene Innere-Punkte-Verfahren Iterationen Iterierten Kanten Kegel kleine Knoten Konvergenz konvergiert konvexe Funktion konvexe Menge Lagrangefunktion lässt Lemma linear unabhängig lineare Programme linearisierten lokale Minimalstelle Matrix minimiere Minimierung Nebenbedingungen Newton-Schritt Newton-Verfahren nichtlineare Programme nichtlinearen Null obigen optimal Optimallösung Optimalwert Optimierung Optimization Polyeder positiv definit positiv semidefinit primal primal-duale Problem Probleme Punkte quadratische quadratische Funktion Satz Schließlich Schritt Schrittweite selbstkonkordante semidefinite Programme Setze Simplexmethode Simplexschritt Startpunkt stationären stetig differenzierbar strikt zulässige symmetrische symmetrische Matrix Ungleichung Variablen Vektor Verfahren Vf(x Voraussetzung Wahl wobei zeigen Zeile Zielfunktion zulässige Basis zulässige Lösung zulässige Menge zunächst