Subdifferential

Das Subdifferential ist eine Verallgemeinerung des Gradienten auf nicht differenzierbare konvexe Funktionen. Das Subdifferential spielt eine wichtige Rolle in der konvexen Analysis sowie der konvexen Optimierung.

Definition

Sei {\displaystyle f\colon \mathbb {R} ^{n}\to \mathbb {R} } eine konvexe Funktion. Ein Vektor {\displaystyle g\in \mathbb {R} ^{n}} heißt Subgradient von f an der Stelle x_{0}, wenn für alle x\in\R^n gilt

{\displaystyle f(x)\geq f(x_{0})+\langle g,x-x_{0}\rangle },

wobei \langle \cdot ,\cdot \rangle das Standardskalarprodukt bezeichnet.

Das Subdifferential {\displaystyle \partial f(x_{0})} ist die Menge aller Subgradienten von f im Punkt x_{0}.

Anschauung

Subgradienten einer konvexen Funktion

Intuitiv bedeutet diese Definition für n=1, dass der Graph der Funktion f überall über der Geraden G liegt, die durch den Punkt (x_{0},f(x_{0})) geht und die Steigung g besitzt:

{\displaystyle G=\{(x,y)\in \mathbb {R} ^{2}\mid y=g\cdot (x-x_{0})+f(x_{0})\}}

Da die Normalengleichung von G gerade

{\displaystyle -g\cdot (x-x_{0})+1\cdot (y-f(x_{0}))=0}

ist, ist die Normale an G also {\displaystyle (-g,1)\in \mathbb {R} ^{2}}

Im allgemeinen Fall n\geq 1 liegt f über der Hyperebenen, die durch den Fußpunkt (x_{0},f(x_{0})) und die Normale {\displaystyle (-g,1)\in \mathbb {R} ^{n+1}} gegeben ist.

Wegen des Trennungssatzes ist das Subdifferential einer stetigen konvexen Funktion überall nicht leer.

Beispiel

Das Subdifferential der Funktion f\colon {\mathbb  {R}}\rightarrow {\mathbb  {R}}, {\displaystyle x\mapsto |x|} ist gegeben durch:

{\displaystyle \partial f(x_{0})={\begin{cases}\{-1\}&x_{0}<0\\\left[-1,1\right]&x_{0}=0\\\{1\}&x_{0}>0\end{cases}}}

Beschränktheit

Sei {\displaystyle f\colon \mathbb {R} ^{n}\rightarrow \mathbb {R} } stetig und sei {\displaystyle X\subset \mathbb {R} ^{n}} beschränkt. Dann ist die Menge {\displaystyle \bigcup _{x_{0}\in X}\partial f(x_{0})} beschränkt.

Beweis

Sei {\displaystyle f\colon \mathbb {R} ^{n}\rightarrow \mathbb {R} } stetig und sei {\displaystyle X\subset \mathbb {R} ^{n}} beschränkt. Setze {\displaystyle \varepsilon :=\sup |f({\overline {U_{1}(X)}})|} wobei {\displaystyle {\overline {U_{1}(X)}}=\{x\in \mathbb {R} ^{n}\mid {\rm {dist}}(x,X)\leq 1\}}. Angenommen {\displaystyle \bigcup _{x_{0}\in X}\partial f(x_{0})} ist nicht beschränkt, dann gibt es für {\displaystyle R:=2\varepsilon } ein x_{0}\in X und ein {\displaystyle g\in \partial f(x_{0})} mit {\displaystyle \|g\|_{2}>R=2\varepsilon }. Sei {\displaystyle x:={\frac {1}{\|g\|_{2}}}g+x_{0}}. Somit sind {\displaystyle x_{0},x\in {\overline {U_{1}(X)}}}. Wir erhalten die Abschätzung

{\displaystyle g^{T}(x-x_{0})={\frac {1}{\|g\|_{2}}}g^{T}g=\|g\|_{2}>2\varepsilon \geq \left|f(x)-f(x_{0})\right|\geq f(x)-f(x_{0})}.

g ist also kein Subgradient. Das ist ein Widerspruch.

Trenner
Basierend auf einem Artikel in: Extern Wikipedia.de
Seitenende
Seite zurück
© biancahoegel.de
Datum der letzten Änderung: Jena, den: 07.01. 2022