Commit fe51cafa authored by Sander, Oliver's avatar Sander, Oliver
Browse files

Erste Skizze: Nichtlineare Schwarz-Verfahren

parent 8d41e5ea
Pipeline #6783 passed with stage
in 3 minutes and 42 seconds
...@@ -183,3 +183,13 @@ year = {2013} ...@@ -183,3 +183,13 @@ year = {2013}
journal={Mathematics of computation}, journal={Mathematics of computation},
year={1999} year={1999}
} }
@Article{carstensen:1997,
author = {Carsten Carstensen},
title = {Domain Decomposition for a Non-smooth Convex Minimization Problem and its Application to Plasticity},
journal = {Numer. Linear Algebra Appl.},
year = {1997},
volume = {4},
number = {3},
pages = {177--190}
}
...@@ -9663,25 +9663,438 @@ Nédélec-Element benötigt. ...@@ -9663,25 +9663,438 @@ Nédélec-Element benötigt.
Damit haben wir gezeigt, dass die Zerlegung über die Ecken bzw. Kanten eines Gitters die Bedingungen für die Konvergenz von Mehrgittermethoden erfüllen. Damit haben wir gezeigt, dass die Zerlegung über die Ecken bzw. Kanten eines Gitters die Bedingungen für die Konvergenz von Mehrgittermethoden erfüllen.
\chapter{Nichtlineare Gleichungen}
Mehrgitterverfahren funktionieren auch für manche nichtlinearen Probleme, aber die Theorie
dahinter ist viel weniger gut verstanden.
\medskip
Es gibt prinzipiell zwei unterschiedliche Ansätze:
\begin{enumerate}
\item Löse das Problem durch ein Newton(-artiges) Verfahren, d.h.\ approximiere es
durch eine Folge von linearen Problemen. Löse diese linearen Probleme mit einem
Mehrgitterverfahren.
\item Wende das Mehrgitterverfahren direkt auf das nichtlineare Problem an.
\end{enumerate}
Ansatz 1)\todo{fest verdrahtet!} funktioniert häufig nicht schlecht, aber Ansatz~2
ist konzeptionell interessanter. Wir beschäftigen uns hier deshalb nur mit Ansatz~2.
\chapter{Mehrgitter für DG-Verfahren}
\section{Nichtlineare Teilraumkorrekturverfahren}
\chapter{Algebraische Mehrgitterverfahren} Die grundlegende Idee der Mehrgitterverfahren ändert sich für nichtlineare Probleme nicht:
\begin{itemize}
\item Ein einfaches nichtlineares Verfahren entfernt die hochfrequenten Anteile
des Fehlers.
\item Die niederfrequenten Anteile können auf einem gröberen Gitter behandelt werden.
\end{itemize}
Wie sehen nichtlineare Glätter aus?
\chapter{Nichtlineare Gleichungen} \medskip
Bisher haben wir Probleme der folgenden Art betrachtet: Finde ein $x \in X$
so dass
\begin{equation*}
a(x,y) = (f,y)
\qquad
\forall y \in X.
\end{equation*}
Dabei war $a(\cdot,\cdot) : X \times X \to \R$ linear in beiden Argumenten.
\medskip
Im Folgenden betrachten wir wieder Probleme der Bauart
\begin{equation}
\label{eq:generic_nonlinear_problem}
a(x,y) = (f,y)
\qquad
\forall y \in X,
\end{equation}
aber $a(\cdot,\cdot)$ darf jetzt nichtlinear \emph{im ersten Argument} sein.
\begin{example}
Die $p$-Laplace-Gleichung ist
\begin{equation*}
- \div (\abs{\nabla u}^{p-2} \nabla u) = 0.
\end{equation*}
Testen mit einer Funktion $\varphi$ ergibt
\begin{equation*}
\int_\Omega \abs{\nabla u}^{p-2} \langle \nabla u, \nabla \varphi \rangle = \text{Randterme}.
\end{equation*}
Die ist ein Problem der Art~\eqref{eq:generic_nonlinear_problem}, und die Form $a(u,\varphi)$ ist linear in $\varphi$.
\end{example}
Wir konstruieren jetzt Schwarz-Verfahren für das nichtlineare Problem~\eqref{eq:generic_nonlinear_problem}.
Sei dafür wieder $\{X_i\}_{i=1}^n$ eine Zerlegung von $X$ in Teilräume, nicht
notwendigerweise direkt.
\medskip
Schwarz-Verfahren für lineare Gleichungen bestanden daraus, dass wir die Defektgleichung
\todo{Prüfen!}
\begin{equation}
\label{eq:schwache_nichtlineare_defektgleichung}
a(c,w) = (f,w) - a(u^k,w)
\qquad
\forall w \in \X_i
\end{equation}
in einem Teilraum $X_i$ gelöst haben, und das Ergebnis $c \in X_i$ als Korrektur benutzt haben:
\begin{equation*}
u^{k+1} = u^k + c.
\end{equation*}
Verschiedene Reihenfolgen und Kombinationen von Teilräumen ergaben die verschiedenen
Schwarz-Verfahren.
\bigskip
Im linearen Fall konnte man die Defektgleichung~\eqref{eq:schwache_nichtlineare_defektgleichung}
als $a(\cdot,\cdot)$-orthogonale Projektion des Fehlers $u^* - u^k$ auf den Teilraum $X_i$
interpretieren. Das geht jetzt nicht mehr.
\medskip
Ansonsten kann man aber die Schwarz-Verfahren auch für nichtlineare Probleme durchführen.
\begin{itemize}
\item Die Teilprobleme~\eqref{eq:schwache_nichtlineare_defektgleichung} löst man dann
z.B.\ mit einem Newton-Löser.
\item Wobei natürlich im allgemeinen Fall völlig unklar ist ob es überhaupt eine
Lösung gibt. Oder vielleicht gleich mehrere.
\end{itemize}
Wir würden jetzt gerne wissen unter welchen Bedingungen solche Schwarz-Verfahren
konvergieren, und ob sie immer noch Glättungseigenschaften haben.
\medskip
Rigorose Ergebnisse gibt es allerdings nur in wenigen Spezialfällen.
Das Folgende stammt aus einem Artikel von \citet{carstensen:1997}.
\medskip
In gewissem Sinne handelt es sich um die einfachsten nichtlinearen Probleme.
\todo[inline]{Erklären dass manche Probleme Minimierungsprobleme sind.}
Sei $\phi : X \to \R$ ein Fréchet-differenzierbares Funktional mit
uniform-elliptischer und Lipschitz-stetiger Fréchet-Ableitung $D\phi$.
\medskip
Das bedeutet dass es zwei Konstanten $0 < \alpha, L < \infty$ gibt so dass
für alle $u,v \in X$
\begin{align*}
\alpha \norm{u-v}_X^2 + D\phi(u)(v-u) & \le \phi(v) - \phi(u) \\
\norm{D\phi(u)(\cdot) - D\phi(v)(\cdot)}_{X^*} & \le L \norm{u-v}_X.
\end{align*}
\begin{exercise}
Zeigen Sie: Aus der ersten Bedingung folgt dass $\phi$ \emph{stark konvex} ist,
dass also
\begin{equation*}
(1-t)\phi(v_1) + t\phi(v_2)
\ge
\phi((1-t)v_1 + tv_2) + t(1-t)\frac{\alpha}{2} \norm{v_1 -v_2}^2
\end{equation*}
für alle $v_1, v_2 \in X$ und alle $t \in [0,1]$.
\todo[inline]{Bin nicht sicher ob $\alpha$ oder $\frac{\alpha}{2}$ richtig ist.}
\end{exercise}
Gesucht ist jetzt der eindeutige Minimierer von $\phi$ über $X$.
\bigskip
Das eben beschriebene Szenario beinhaltet schon ein paar interessante Probleme,
aber wir betrachten dennoch einen etwas allgemeineren Fall.
\medskip
Sei jetzt $J : X \to \R \cup \{ \infty \}$ von der Form
\begin{equation*}
J = \phi + \psi
\end{equation*}
mit $\phi$ wie oben.
\medskip
Ja, wir lassen tatsächlich Funktionwerte $\infty$ zu! In der konvexen Analysis
ist das gang und gäbe.
\medskip
Das Funktional $\psi : X \to \R \cup \{ \infty \}$ soll konvex und unterhalbstetig
sein. Weiterhin soll es separierbar bzgl.\ den Teilräumen $X_i$ sein.
Damit meinen wir dass für alle $(x_1,\dots,x_N) \in X_1 \times \dots X_N$
\begin{equation*}
\psi \Big( \sum_{j=1}^N x_j\Big) = \sum_{j=1}^N \psi(x_j).
\end{equation*}
Außerdem brauchen wir dass für alle $x_j \in X_j$ und $y_j \in \sum_{k=1,k\neq j}^N X_k$
\begin{equation*}
\psi(x_j + P_j y_j) = \psi(x_j).
\end{equation*}
\todo[inline]{Definieren $P_j$!}
\todo[inline]{Diese Bedingung besser erklären!}
\bigskip
Wir betrachten das folgende multiplikative Schwarz-Verfahren.
\begin{itemize}
\item Sei $u_j \in X$ die aktuelle Iterierte.
\item Für alle $j=1,\dots, N$
\begin{equation*}
u_{n + \frac{j}{N}} = \argmin_{v \in u_{n+\frac{j-1}{N}} + X_j} J(v).
\end{equation*}
\end{itemize}
\begin{exercise}
Zeige: Wenn $J$ quadratisch ist, also
\begin{equation*}
J(v) = \frac{1}{2} a(v,v) - (f,v)
\end{equation*}
mit einer symmetrischen, elliptischen Bilinearform $a(\cdot,\cdot)$,
dann erhält man genau das multiplikative Schwarz-Verfahren aus Kapitel~\ref{}.
\end{exercise}
Da $J$ strikt konvex und koerzitiv ist hat jedes der lokalen Minimierungsprobleme
eine eindeutige Lösung. Der Algorithmus ist also durchführbar.
\begin{exercise}
Zeigen Sie dass $J$ koerzitiv ist.
\end{exercise}
\begin{theorem}
Sei $u$ der Minimierer von $J$ in $X$, uns sei $(u_\nu)$ die durch das Schwarz-Verfahren
erzeugte Folge mit Startwert $u_0$. Setze
\begin{align*}
q & \colonequals \frac{\gamma}{1+\gamma} \\
\gamma & \colonequals N C_X^2 L^2 \frac{1}{2\alpha^2} \\
C_0 & \colonequals 2(1+\gamma)\alpha^{-1} (J(u_0) - J(u)).
\end{align*}
Dann gilt
\begin{equation*}
\norm{u - u_\nu}_X^2 \le C_0 q^\nu.
\end{equation*}
\end{theorem}
Einen Beweis für den glatten Fall $\psi = 0$ findet sich bei
\citet[Theorem~I.3]{lions}.
\begin{proof}
\begin{itemize}
\item Sei $\nu = n + \frac{j}{N} \ge 1$.
\item Nach Konstruktion ist $u_\nu$ der Minimierer von $J$ in $X_j$.
\item Deshalb hat $J(\cdot + u_\nu)|_{X_j}$ sein Minimum in $0$.
\item Sei $\partial J$ das Subdifferential von $J$.
\todo[inline]{Das müssen wir definieren...}
\item Es ist $0 \in \partial J(u_\nu)|_{X_j}$, und deshalb\todo{Warum?}
\begin{equation*}
D\phi(u_\nu)(\eta) \le \psi(u_\nu - \eta) - \psi(u_\nu)
\qquad
\forall \eta \in X_j.
\end{equation*}
\item Zusammen mit der Elliptizität von $D\phi$ erhalten wir
\begin{align*}
\alpha \norm{u_\nu - u_{\nu - \frac{1}{N}}}^2
& \le
\phi(u_{\nu - \frac{1}{N}}) - \phi(u_\nu) + D\phi(u_\nu)(u_\nu - u_{\nu - \frac{1}{N}}) \\
& \le
\phi(u_{\nu - \frac{1}{N}}) - \phi(u_\nu) + \psi(u_{\nu - \frac{1}{N}}) - \psi(u_\nu) \\
& =
J(u_{\nu - \frac{1}{N}}) - J(u_\nu).
\end{align*}
\end{itemize}
Jetzt nutzen wir die Zerlegung in Teilräume, und zerlegen den Fehler
\begin{equation*}
u_\nu - u = \sum_{k = j - N+1}^j P_k(u_\nu - u).
\end{equation*}
Dabei sind die Indizes mod $N$ zu verstehen.
\medskip
Sei $k \in \{ j - N+1, \dots, j\}$.
Wir rechnen
\begin{align*}
D\phi(u_{n+\frac{k}{N}})(\sum_{m = j-N+1}^k P_m(u_\nu - u))
& =
D\phi(u_{n+\frac{k}{N}})(\sum_{m = j-N+1}^{k-1} P_m(u_\nu - u))
+ D\phi(u_{n+\frac{k}{N}})(P_k(u_\nu - u)) \\
& \text{(wegen Linearität von $D\phi$ im zweiten Argument)} \\
& \le
D\phi(u_{n+\frac{k}{N}})(\sum_{m = j-N+1}^{k-1} P_m(u_\nu - u))
+ \psi(u_{n + \frac{k}{N}} - P_k(u_\nu - u)) \\
& \qquad - \psi(u_{n + \frac{k}{N}}).
\end{align*}
Indem wir diese Abschätzung nacheinander für $k=j, j-1, \dots, j-N+1$
anwenden bekommen wir
\begin{multline*}
D\phi(u_\nu)(u_\nu - u)
\le
\sum_{k=j-N+1}^j \Big( \psi(u_{n+\frac{k}{N}} - P_k(u_\nu - u)) - \psi(u_{n+\frac{k}{N}})\Big) \\
+
\sum_{k=j-N+1}^j \Big(D\phi(u_{n+\frac{k}{N}})(\cdot) - D\phi(u_{n+\frac{k-1}{N}})(\cdot)\Big)
\Big(\sum_{m=j-N+1}^{k-1} P_m(u_\nu - u)\Big)
\end{multline*}
Das schätzen wir weiter ab, und erhalten
\begin{align*}
D\phi(u_\nu)(u_\nu - u)
& \le
\sum_{k=j-N+1}^j \Big( \psi(u_{n+\frac{k}{N}} - P_k(u_\nu - u)) - \psi(u_{n+\frac{k}{N}})\Big) \\
& +
\Bigg|\sum_{k=j-N+1}^j \Big(D\phi(u_{n+\frac{k}{N}})(\cdot) - D\phi(u_{n+\frac{k-1}{N}})(\cdot)\Big)
\Big(\sum_{m=j-N+1}^{k-1} P_m(u_\nu - u)\Big) \Bigg| \\
& \le
\sum_{k=j-N+1}^j \Big( \psi(u_{n+\frac{k}{N}} - P_k(u_\nu - u)) - \psi(u_{n+\frac{k}{N}})\Big) \\
& +
L\sum_{k=j-N+1}^j \norm{u_{n+\frac{k}{N}} - u_{n+\frac{k-1}{N}}}_{X^*}
\qquad (\text{Lipschitz-Stetigkeit von $D\phi$}) \\
& \cdot C_X \norm{u_\nu - u}
\qquad (\text{Stabilität der Zerlegung $\{X_i\}$})
\end{align*}
\paragraph{Nächster Teilschritt} \mbox{}
Als nächstes schätzen wir den nichtglatten Term
\begin{equation*}
\sum_{k=j-N+1}^j \Big( \psi(u_{n+\frac{k}{N}} - P_k(u_\nu - u)) - \psi(u_{n+\frac{k}{N}})\Big)
\end{equation*}
ab. Dazu nutzen wir die Separabilität von $\psi$.
\medskip
Nach Konstruktion des Algorithmus ist
\begin{equation*}
u_nu - u_{n+\frac{k}{N}}
\in
\sum_{m=k+1}^j X_m
\qquad
\forall k \in \{ j-N+1, \dots, j\}.
\end{equation*}
Wegen der Separierbarkeit~\eqref{} erhält man
\begin{equation*}
\psi(P_k(u_{n+\frac{k}{N}} - u_\nu) + P_k u) = \psi(P_k u)
\end{equation*}
und
\begin{equation*}
\psi(P_k(u_{n+\frac{k}{N}})) = \psi(P_k u_\nu).
\end{equation*}
Jetzt schauen wir uns einen Summanden von~\eqref{} an:
\begin{align*}
\psi(u_{n+\frac{k}{N}} - P_k(u_\nu - u)) - \psi(u_{n + \frac{k}{N}})
& =
\psi(\sum_{m=j-N+1}^j P_m (u_{n+\frac{k}{N}} - P_k(u_\nu - u))) - \psi(\sum_{m=j-N+1}^j P_m u_{n + \frac{k}{N}}) \\
& =
\sum_{m=j-N+1}^j\psi( P_m (u_{n+\frac{k}{N}} - P_k(u_\nu - u))) - \sum_{m=j-N+1}^j \psi(P_m u_{n + \frac{k}{N}}) \\
& \qquad (\text{Separierbarkeit})
\end{align*}
Wegen [2.8] erhält man
\begin{equation*}
= \psi( P_k u_{n+\frac{k}{N}} - P_k P_k(u_\nu - u)) - \psi(P_k u_{n + \frac{k}{N}})
\end{equation*}
Wegen [3.7] erhält man
\begin{equation*}
\psi(u_{n+\frac{k}{N}} - P_k(u_\nu - u)) - \psi(u_{n + \frac{k}{N}})
=
\psi(\P_k u) - \psi(P_k u_\nu).
\end{equation*}
\paragraph{Nächster Teilschritt} \mbox{}
Das bauen wir in [3.5] ein. [3.5] sagt
\begin{multline*}
D\phi(u_\nu)(u_\nu - u)
\le
C_X L \norm{u - u_\nu}_X \cdot \sum_{k=j-N+1}^j \norm{u_{n+\frac{k}{N}} - u_{n+\frac{k-1}{N}}}_X \\
+
\sum_{k=j-N+1}^j (\psi(u_{n+\frac{k}{N}} - P_k(u_\nu -u)) - \psi(u_{n+\frac{k}{N}})).
\end{multline*}
Mit der Abschätzung für $\psi$ ergibt das
\begin{multline*}
D\phi(u_\nu)(u_\nu - u)
\le
C_X L \norm{u - u_\nu}_X \cdot \sum_{k=j-N+1}^j \norm{u_{n+\frac{k}{N}} - u_{n+\frac{k-1}{N}}}_X \\
+
\underbrace{\sum_{k=j-N+1}^j (\psi(P_ku) - \psi(P_k u_\nu))}_{=\psi(u) - \psi(u_\nu), \text{wegen ???}}.
\end{multline*}
Wegen~\eqref{} wiederum ist
\begin{equation*}
\norm{u_{n + \frac{k}{N}} - u_{n + \frac{k-1}{N}}}^2
\le
\frac{1}{\alpha} \Big( f(u_{n + \frac{k-1}{N}}) - f(u_{n + \frac{k}{N}})\Big),
\end{equation*}
und deshalb
\begin{equation*}
D\phi(u_\nu)(u_\nu - u)
\le
C_X L \frac{1}{\sqrt{\alpha}}
\sum_{k=j-N+1}^j \Big( f(u_{n + \frac{k-1}{N}}) - f(u_{n + \frac{k}{N}}) \Big)^\frac{1}{2}.
\end{equation*}
Schreibe zur Abkürzung
\begin{equation*}
\delta_\mu \colonequals f(u_\mu) - f(u)
\qquad \text{und} \qquad
\epsilon_\mu \colonequals \norm{u-u_\mu}_X.
\end{equation*}
Dann erhält man
\begin{align*}
\alpha \epsilon_\nu^2 + \delta_\nu
& \le
C_X L \alpha^{-1/2} \epsilon_\nu \cdot
\sum_{\mu = \nu -1 + \frac{1}{N}} (\delta_{\mu - \frac{1}{N}} - \delta_\mu)^{1/2} \\
%
& \le
\gamma (\delta_{\nu-1} - \delta_\nu) + \frac{1}{2} \alpha \epsilon_\nu^2.
\end{align*}
Daraus wiederum folgt
\begin{equation*}
\frac{\alpha}{2(1+\gamma)} \cdot \epsilon^2_\nu + \delta_\nu
\le
q \cdot \delta_{\nu-1}.
\end{equation*}
Daraus folgt zum einen
\begin{equation*}
\delta_\nu \le \delta_0 \cdot q^{[\nu]}
\end{equation*}
\todo[inline]{Carstensen sagt nicht was er mit den eckigen Klammern meint...}
und zu zum anderen die Behauptung
\begin{equation*}
\norm{u - u_\nu}_X^2 \le C_0 \cdot q^{[\nu]}.
\qedhere
\end{equation*}
\end{proof}
\section{Nichtlineare Teilraumkorrekturverfahren}
\section{Das Full Approximation Scheme (FAS)} \section{Das Full Approximation Scheme (FAS)}
\section{Abgeschnittenes Newton-Mehrgitter (TNNMG)} \section{Abgeschnittenes Newton-Mehrgitter (TNNMG)}
\chapter{Mehrgitter für DG-Verfahren}
\chapter{Algebraische Mehrgitterverfahren}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\printbibliography \printbibliography
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment