Commit 47e2e82a authored by Sander, Oliver's avatar Sander, Oliver
Browse files

Nichtlineares Schwarz-Verfahren: diverse Verbesserungen

parent fe51cafa
Pipeline #6789 passed with stage
in 3 minutes and 25 seconds
......@@ -9832,9 +9832,10 @@ Damit meinen wir dass für alle $(x_1,\dots,x_N) \in X_1 \times \dots X_N$
\psi \Big( \sum_{j=1}^N x_j\Big) = \sum_{j=1}^N \psi(x_j).
\end{equation*}
Außerdem brauchen wir dass für alle $x_j \in X_j$ und $y_j \in \sum_{k=1,k\neq j}^N X_k$
\begin{equation*}
\begin{equation}
\label{eq:nonsmooth_independence}
\psi(x_j + P_j y_j) = \psi(x_j).
\end{equation*}
\end{equation}
\todo[inline]{Definieren $P_j$!}
\todo[inline]{Diese Bedingung besser erklären!}
......@@ -9869,12 +9870,12 @@ eine eindeutige Lösung. Der Algorithmus ist also durchführbar.
\begin{theorem}
Sei $u$ der Minimierer von $J$ in $X$, uns sei $(u_\nu)$ die durch das Schwarz-Verfahren
Sei $u$ der Minimierer von $J$ in $X$, und sei $(u_\nu)$ die durch das Schwarz-Verfahren
erzeugte Folge mit Startwert $u_0$. Setze
\begin{align*}
\gamma & \colonequals \frac{N C_X^2 L^2 }{2\alpha^2} \\
q & \colonequals \frac{\gamma}{1+\gamma} \\
\gamma & \colonequals N C_X^2 L^2 \frac{1}{2\alpha^2} \\
C_0 & \colonequals 2(1+\gamma)\alpha^{-1} (J(u_0) - J(u)).
C_0 & \colonequals \frac{2(1+\gamma)}{\alpha} (J(u_0) - J(u)).
\end{align*}
Dann gilt
\begin{equation*}
......@@ -9882,9 +9883,6 @@ eine eindeutige Lösung. Der Algorithmus ist also durchführbar.
\end{equation*}
\end{theorem}
Einen Beweis für den glatten Fall $\psi = 0$ findet sich bei
\citet[Theorem~I.3]{lions}.
\begin{proof}
\begin{itemize}
\item Sei $\nu = n + \frac{j}{N} \ge 1$.
......@@ -9893,26 +9891,35 @@ Einen Beweis für den glatten Fall $\psi = 0$ findet sich bei
\item Deshalb hat $J(\cdot + u_\nu)|_{X_j}$ sein Minimum in $0$.
\item Sei $\partial J$ das Subdifferential von $J$.
\todo[inline]{Das müssen wir definieren...}
\item Sei $\partial J(u_\nu)$ das Subdifferential von $J$ an der Stelle $u_\nu$,
d.h.\ die Menge aller Vektoren $v \in X$ so dass
\begin{equation*}
\langle v,(x-u_\nu) \rangle \le J(x) - J(u_\nu).
\end{equation*}
\item Es ist $0 \in \partial J(u_\nu)|_{X_j}$, und deshalb\todo{Warum?}
\begin{equation*}
\item Es ist $0 \in \partial J(u_\nu)|_{X_j} = D\phi(u_\nu) + \partial \psi(u_\nu)$,
und deshalb $- D\phi(u_\nu) \in \partial \psi(u_\nu)$, was bedeutet dass
\begin{equation}
\label{eq:nonsmooth_bounds_smooth}
D\phi(u_\nu)(\eta) \le \psi(u_\nu - \eta) - \psi(u_\nu)
\qquad
\forall \eta \in X_j.
\end{equation*}
\end{equation}
\todo[inline]{Details nachprüfen!}
\item Zusammen mit der Elliptizität von $D\phi$ erhalten wir
\begin{align*}
\begin{align}
\nonumber
\alpha \norm{u_\nu - u_{\nu - \frac{1}{N}}}^2
& \le
\phi(u_{\nu - \frac{1}{N}}) - \phi(u_\nu) + D\phi(u_\nu)(u_\nu - u_{\nu - \frac{1}{N}}) \\
\nonumber
& \le
\phi(u_{\nu - \frac{1}{N}}) - \phi(u_\nu) + \psi(u_{\nu - \frac{1}{N}}) - \psi(u_\nu) \\
\label{eq:values_bound_square}
& =
J(u_{\nu - \frac{1}{N}}) - J(u_\nu).
\end{align*}
\end{align}
\end{itemize}
......@@ -9924,19 +9931,18 @@ Dabei sind die Indizes mod $N$ zu verstehen.
\medskip
Sei $k \in \{ j - N+1, \dots, j\}$.
Wir rechnen
Für ein $k \in \{ j - N+1, \dots, j\}$ rechnen wir
\begin{align*}
D\phi(u_{n+\frac{k}{N}})(\sum_{m = j-N+1}^k P_m(u_\nu - u))
D\phi(u_{n+\frac{k}{N}})\Big(\sum_{m = j-N+1}^k P_m(u_\nu - u)\Big)
& =
D\phi(u_{n+\frac{k}{N}})(\sum_{m = j-N+1}^{k-1} P_m(u_\nu - u))
D\phi(u_{n+\frac{k}{N}})\Big(\sum_{m = j-N+1}^{k-1} P_m(u_\nu - u)\Big)
+ D\phi(u_{n+\frac{k}{N}})(P_k(u_\nu - u)) \\
& \text{(wegen Linearität von $D\phi$ im zweiten Argument)} \\
& \le
D\phi(u_{n+\frac{k}{N}})(\sum_{m = j-N+1}^{k-1} P_m(u_\nu - u))
D\phi(u_{n+\frac{k}{N}})\Big(\sum_{m = j-N+1}^{k-1} P_m(u_\nu - u)\Big)
+ \psi(u_{n + \frac{k}{N}} - P_k(u_\nu - u)) \\
& \qquad - \psi(u_{n + \frac{k}{N}}).
\qquad (\text{wegen~\eqref{eq:nonsmooth_bounds_smooth}})
\end{align*}
Indem wir diese Abschätzung nacheinander für $k=j, j-1, \dots, j-N+1$
......@@ -9946,32 +9952,37 @@ anwenden bekommen wir
\le
\sum_{k=j-N+1}^j \Big( \psi(u_{n+\frac{k}{N}} - P_k(u_\nu - u)) - \psi(u_{n+\frac{k}{N}})\Big) \\
+
\sum_{k=j-N+1}^j \Big(D\phi(u_{n+\frac{k}{N}})(\cdot) - D\phi(u_{n+\frac{k-1}{N}})(\cdot)\Big)
\sum_{k=j-N+1}^j \Big(D\phi(u_{n+\frac{k}{N}}) - D\phi(u_{n+\frac{k-1}{N}})\Big)
\Big(\sum_{m=j-N+1}^{k-1} P_m(u_\nu - u)\Big)
\end{multline*}
Das schätzen wir weiter ab, und erhalten
\begin{align*}
\begin{align}
\nonumber
D\phi(u_\nu)(u_\nu - u)
& \le
\sum_{k=j-N+1}^j \Big( \psi(u_{n+\frac{k}{N}} - P_k(u_\nu - u)) - \psi(u_{n+\frac{k}{N}})\Big) \\
\nonumber
& +
\Bigg|\sum_{k=j-N+1}^j \Big(D\phi(u_{n+\frac{k}{N}})(\cdot) - D\phi(u_{n+\frac{k-1}{N}})(\cdot)\Big)
\Big(\sum_{m=j-N+1}^{k-1} P_m(u_\nu - u)\Big) \Bigg| \\
\sum_{k=j-N+1}^j \norm[\bigg]{D\phi(u_{n+\frac{k}{N}}) - D\phi(u_{n+\frac{k-1}{N}})}_{X^*}
\norm[\bigg]{\sum_{m=j-N+1}^{k-1} P_m(u_\nu - u)}_X \\
& \le
\sum_{k=j-N+1}^j \Big( \psi(u_{n+\frac{k}{N}} - P_k(u_\nu - u)) - \psi(u_{n+\frac{k}{N}})\Big) \\
\nonumber
& +
L\sum_{k=j-N+1}^j \norm{u_{n+\frac{k}{N}} - u_{n+\frac{k-1}{N}}}_{X^*}
L\sum_{k=j-N+1}^j \norm{u_{n+\frac{k}{N}} - u_{n+\frac{k-1}{N}}}_X
\qquad (\text{Lipschitz-Stetigkeit von $D\phi$}) \\
\label{eq:bound_on_Dphi}
& \cdot C_X \norm{u_\nu - u}
\qquad (\text{Stabilität der Zerlegung $\{X_i\}$})
\end{align*}
\end{align}
\paragraph{Nächster Teilschritt} \mbox{}
Als nächstes schätzen wir den nichtglatten Term
\begin{equation*}
\begin{equation}
\label{eq:nonsmooth_sum}
\sum_{k=j-N+1}^j \Big( \psi(u_{n+\frac{k}{N}} - P_k(u_\nu - u)) - \psi(u_{n+\frac{k}{N}})\Big)
\end{equation*}
\end{equation}
ab. Dazu nutzen wir die Separabilität von $\psi$.
\medskip
......@@ -9985,16 +9996,15 @@ Nach Konstruktion des Algorithmus ist
\forall k \in \{ j-N+1, \dots, j\}.
\end{equation*}
Wegen der Separierbarkeit~\eqref{} erhält man
\begin{equation*}
Wegen der Separierbarkeit~\eqref{eq:nonsmooth_independence} erhält man
\begin{equation}
\label{eq:carstensen_3.7}
\psi(P_k(u_{n+\frac{k}{N}} - u_\nu) + P_k u) = \psi(P_k u)
\end{equation*}
und
\begin{equation*}
\qquad \text{und} \qquad
\psi(P_k(u_{n+\frac{k}{N}})) = \psi(P_k u_\nu).
\end{equation*}
\end{equation}
Jetzt schauen wir uns einen Summanden von~\eqref{} an:
Jetzt schauen wir uns einen Summanden von~\eqref{eq:nonsmooth_sum} an:
\begin{align*}
\psi(u_{n+\frac{k}{N}} - P_k(u_\nu - u)) - \psi(u_{n + \frac{k}{N}})
& =
......@@ -10003,21 +10013,22 @@ Jetzt schauen wir uns einen Summanden von~\eqref{} an:
\sum_{m=j-N+1}^j\psi( P_m (u_{n+\frac{k}{N}} - P_k(u_\nu - u))) - \sum_{m=j-N+1}^j \psi(P_m u_{n + \frac{k}{N}}) \\
& \qquad (\text{Separierbarkeit})
\end{align*}
Wegen [2.8] erhält man
Wegen~\eqref{eq:nonsmooth_independence} erhält man
\begin{equation*}
= \psi( P_k u_{n+\frac{k}{N}} - P_k P_k(u_\nu - u)) - \psi(P_k u_{n + \frac{k}{N}})
\end{equation*}
Wegen [3.7] erhält man
\begin{equation*}
Wegen \eqref{eq:carstensen_3.7} erhält man
\begin{equation}
\label{eq:nonsmooth_intermediate_bound}
\psi(u_{n+\frac{k}{N}} - P_k(u_\nu - u)) - \psi(u_{n + \frac{k}{N}})
=
\psi(\P_k u) - \psi(P_k u_\nu).
\end{equation*}
\psi(P_k u) - \psi(P_k u_\nu).
\end{equation}
\paragraph{Nächster Teilschritt} \mbox{}
Das bauen wir in [3.5] ein. [3.5] sagt
Das bauen wir in~\eqref{eq:bound_on_Dphi} ein. Zur Erinnerung: \eqref{eq:bound_on_Dphi} sagt
\begin{multline*}
D\phi(u_\nu)(u_\nu - u)
\le
......@@ -10031,24 +10042,24 @@ Mit der Abschätzung für $\psi$ ergibt das
\le
C_X L \norm{u - u_\nu}_X \cdot \sum_{k=j-N+1}^j \norm{u_{n+\frac{k}{N}} - u_{n+\frac{k-1}{N}}}_X \\
+
\underbrace{\sum_{k=j-N+1}^j (\psi(P_ku) - \psi(P_k u_\nu))}_{=\psi(u) - \psi(u_\nu), \text{wegen ???}}.
\underbrace{\sum_{k=j-N+1}^j (\psi(P_ku) - \psi(P_k u_\nu))}_{\text{$=\psi(u) - \psi(u_\nu)$, wegen \eqref{eq:nonsmooth_intermediate_bound}}}.
\end{multline*}
Wegen~\eqref{} wiederum ist
Wegen~\eqref{eq:values_bound_square} wiederum ist
\begin{equation*}
\norm{u_{n + \frac{k}{N}} - u_{n + \frac{k-1}{N}}}^2
\le
\frac{1}{\alpha} \Big( f(u_{n + \frac{k-1}{N}}) - f(u_{n + \frac{k}{N}})\Big),
\frac{1}{\alpha} \Big( J(u_{n + \frac{k-1}{N}}) - J(u_{n + \frac{k}{N}})\Big),
\end{equation*}
und deshalb
\begin{equation*}
D\phi(u_\nu)(u_\nu - u)
\le
C_X L \frac{1}{\sqrt{\alpha}}
\sum_{k=j-N+1}^j \Big( f(u_{n + \frac{k-1}{N}}) - f(u_{n + \frac{k}{N}}) \Big)^\frac{1}{2}.
\sum_{k=j-N+1}^j \Big( J(u_{n + \frac{k-1}{N}}) - J(u_{n + \frac{k}{N}}) \Big)^\frac{1}{2}.
\end{equation*}
Schreibe zur Abkürzung
\begin{equation*}
\delta_\mu \colonequals f(u_\mu) - f(u)
\delta_\mu \colonequals J(u_\mu) - J(u)
\qquad \text{und} \qquad
\epsilon_\mu \colonequals \norm{u-u_\mu}_X.
\end{equation*}
......@@ -10058,7 +10069,7 @@ Dann erhält man
\alpha \epsilon_\nu^2 + \delta_\nu
& \le
C_X L \alpha^{-1/2} \epsilon_\nu \cdot
\sum_{\mu = \nu -1 + \frac{1}{N}} (\delta_{\mu - \frac{1}{N}} - \delta_\mu)^{1/2} \\
\sum_{\mu = \nu -1 + \frac{1}{N}}^j (\delta_{\mu - \frac{1}{N}} - \delta_\mu)^{1/2} \\
%
& \le
\gamma (\delta_{\nu-1} - \delta_\nu) + \frac{1}{2} \alpha \epsilon_\nu^2.
......@@ -10071,14 +10082,29 @@ Daraus wiederum folgt
\end{equation*}
Daraus folgt zum einen
\begin{equation*}
\delta_\nu \le \delta_0 \cdot q^{[\nu]}
\delta_\nu
\le
q \cdot \delta_{\nu-1} - \frac{\alpha}{2(1+\gamma)} \epsilon_\nu^2
\le
q \cdot \delta_{\nu-1}
\le
\delta_0 \cdot q^{\nu},
\end{equation*}
\todo[inline]{Carstensen sagt nicht was er mit den eckigen Klammern meint...}
und zu zum anderen die Behauptung
\begin{equation*}
\norm{u - u_\nu}_X^2 \le C_0 \cdot q^{[\nu]}.
\todo[inline]{Carstensen schreibt hier $q^{[\nu]}$ sagt nicht
was er damit genau meint...}
und zum anderen die Behauptung
\begin{align*}
\norm{u - u_\nu}_X^2 = \epsilon_\nu^2
& \le
\frac{2(1+\gamma)}{\alpha} (q \delta_{\nu-1} - \delta_\nu) \\
& \le
??? \\
& \le
\underbrace{\frac{2(1+\gamma)}{\alpha} (J(u_0) - J(u))}_{=C_0} \cdot q^{[\nu]}\\
& =
C_0 \cdot q^{[\nu]}.
\qedhere
\end{equation*}
\end{align*}
\end{proof}
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment