Update Summary

This commit is contained in:
DotNaos 2025-06-24 19:07:14 +02:00
parent 973e4b8c48
commit 9dd8e8e334

View File

@ -178,14 +178,77 @@ Dieser sollte $$-1 \leq BAL(N)\leq 1$$
## 5. Reelwertige Optimierung in einer Dimension ## 5. Reelwertige Optimierung in einer Dimension
Bisektion mit Sampling. I.e. man macht Bisektion mehrere Male, mit anderen Intervallen. Bisektion mit Sampling. I.e. man macht Bisektion mehrere Male, mit anderen Intervallen.
Also z.B. komplettes intervall ist $I=[1, 10]$, und dort sind vielleicht 4 lokale Minima.
Dann macht man halt $$I_1=[1, 4], I_2=[4,7], I_3=[7, 10]$$
Und führt auf den Intervallen Bisektion aus und nimmt das beste Ergebnis.
Ganz Normal Newton Verfahren mit Schrittweitensteuerung. Ganz Normal Newton Verfahren mit Schrittweitensteuerung.
### Straf- (Penalty-) Funktionen
**Grundidee**
Mit einer Straffunktion $$p(x)$$ wird ein restringiertes Problem
$$
\text{Min } f(x), \qquad A \le x \le B
$$
auf ein *unrestringiertes* Problem
$$
\text{Min } \Phi(x) \;=\; f(x) + p(x)
$$
abgebildet. Die Strafe $$p(x)$$ ist null im gültigen Bereich und wächst quadratisch, sobald eine Schranke verletzt wird.
---
#### Quadratische Strafterme (2-mal diff'bar)
$$
p_1(x) \;=\; \beta (x-A)^2 \quad \text{für } x \ge A,\;\text{sonst }0,
$$
$$
p_2(x) \;=\; \beta (x-B)^2 \quad \text{für } x \le B,\;\text{sonst }0,
$$
$$
p(x) \;=\; p_1(x) + p_2(x), \qquad \beta>0.
$$
Je größer $\beta$, desto stärker die Strafe ⇒ höhere Genauigkeit am Rand, aber auch instabilere Newton-Schritte.
---
#### Beispiel
$$
\text{Min } e^x, \qquad 0 \le x \le 1.
$$
Strafterme
$$
p_1(x)=\beta x^2, \qquad p_2(x)=\beta (x-1)^2,
$$
Gesamtfunktion
$$
\Phi(x)=e^x + p_1(x) + p_2(x).
$$
*Ableitungen einsetzen → Newton-Iteration mit $\Phi$ anstelle von $f$.*
> **Merke:** Die Wahl von $\beta$ ist ein Kompromiss zwischen Genauigkeit und numerischer Stabilität.
## 6. Bivariate Lineare Programmierung ## 6. Bivariate Lineare Programmierung
1. Nebenbedingungen Aufbauen (Ungleichungen) 1. Nebenbedingungen Aufbauen (Ungleichungen)
2. Nach $y$ auflösen und einzeichnen 2. Nach $y$ auflösen und einzeichnen (Aufpassen)
3. Lösung finden 3. Lösung finden
>Werden beide Seiten einer Ungleichung mit einer negativen Zahl multipliziert oder durch eine negative Zahl dividiert, muss das Ungleichheitszeichen umgekehrt werden (z.B. aus $<$ wird $>$)
## 7. Reelwertige Optimierung in N Dimensionen ## 7. Reelwertige Optimierung in N Dimensionen
@ -195,7 +258,6 @@ $$f(x_1, x_2,..., x_n)$$
$$ f'(x) \longrightarrow \nabla f(x)$$ $$ f'(x) \longrightarrow \nabla f(x)$$
$$f''(x) \longrightarrow H$$ $$f''(x) \longrightarrow H$$
TODO: hesse matrix
### 7.2 Downhill-Simplex ### 7.2 Downhill-Simplex
Besteht aus n+1 Punkten Besteht aus n+1 Punkten
@ -225,27 +287,55 @@ $$mean((f_{x_i} - mean([...f_x]))^2)$$
### 7.3 Newton ### 7.3 Newton
Für 1 Parameter: Für 1 Parameter:
$$x_{n+1} = x_n - \frac{f'(x)}{f''(x)}$$ $$x_{n+1} = x_n - \frac{f'(x)}{f''(x)}$$
Für 1< Parameter: Für 1< Parameter:
$$x_{x+1} = x_n - H^{-1}_n * \nabla f_n$$ $$x_{x+1} = x_n - H^{-1}_n * \nabla f_n$$
Mit Schrittweitensteuerung: Mit Schrittweitensteuerung:
$$x_{x+1} = x_n - c_i * H^{-1}_n * \nabla f_n$$ $$x_{x+1} = x_n - c_i * H^{-1}_n * \nabla f_n$$
Straffunktion: **1. Partielle Ableitungen**
Sei $A \leq x \leq B$ eine Restriktion für ein Optimierungsproblem. Dann $f_{xx}$ ist $f(x, y)$, zweimal partiell nach x abgeleitet. $f_{xy}$ wäre einmal nach $x$ und ein zweites mal nach $y$ abgeleitet.
kann man die Restriktion $A \leq x \leq B$ in das Optimierungsproblem mittels einer Straf- bzw. Penaltyfunktion einbauen. Eine häufig verwendete Methode ist die quadratische Strafterm-Methode:
$$ $$
\phi(x) = f(x) + \mu \cdot \left( \sum_i \max(0, A_i - x_i)^2 + \sum_i \max(0, x_i - B_i)^2 \right) f_{xx} = \frac{\partial^{2} f}{\partial x^{2}},\qquad
f_{xy} = \frac{\partial^{2} f}{\partial x\,\partial y},\qquad
f_{yx} = \frac{\partial^{2} f}{\partial y\,\partial x},\qquad
f_{yy} = \frac{\partial^{2} f}{\partial y^{2}}.
$$ $$
Dabei ist: **2. Gradient**
- $f(x)$ die ursprüngliche Zielfunktion, Vektor mit $\text{1. Partieller Ableitung nach x}$ in der $x$ Komponente, respektive part. diff. y in y .
- $\mu > 0$ ein Strafparameter, der die Stärke der Strafe reguliert, $$
- $A_i$, $B_i$ die untere bzw. obere Schranke für $x_i$. \nabla f(x,y)=
\begin{pmatrix}
\displaystyle\frac{\partial f}{\partial x}\\[6pt]
\displaystyle\frac{\partial f}{\partial y}
\end{pmatrix}.
$$
Ziel ist es, eine neue Funktion $\phi(x)$ zu minimieren, die außerhalb des zulässigen Bereichs stark anwächst, sodass die Minimierung bevorzugt innerhalb der Restriktionen erfolgt.
**3. Hesse Matrix und Determinante**
$$
H=
\begin{pmatrix}
f_{xx} & f_{xy}\\
f_{yx} & f_{yy}
\end{pmatrix},
\qquad
\det H = f_{xx}\cdot f_{yy}-(f_{xy})^2.
$$
**4. Inverse Hesse-Matrix bestimmen**
$$
H^{-1}=\frac{1}{\det H}
\begin{pmatrix}
f_{yy} & -f_{xy}\\
-f_{xy} & f_{xx}
\end{pmatrix}.
$$
### 7.4 Steepest-Descent ### 7.4 Steepest-Descent
Newton aber mit Hesse-Matrix = 1 Newton aber mit $H^{-1} \approx 1$. Btw. das $c$ ist wichtig, weil der Gradient nur ne Richtung ist.
$$x_{x+1} = x_n - c_i * \nabla f_n$$ $$x_{x+1} = x_n - c_i * \nabla f_n$$