Commit fe51cafa authored by Sander, Oliver's avatar Sander, Oliver
Browse files

Erste Skizze: Nichtlineare Schwarz-Verfahren

parent 8d41e5ea
Pipeline #6783 passed with stage
in 3 minutes and 42 seconds
......@@ -183,3 +183,13 @@ year = {2013}
journal={Mathematics of computation},
year={1999}
}
@Article{carstensen:1997,
author = {Carsten Carstensen},
title = {Domain Decomposition for a Non-smooth Convex Minimization Problem and its Application to Plasticity},
journal = {Numer. Linear Algebra Appl.},
year = {1997},
volume = {4},
number = {3},
pages = {177--190}
}
......@@ -9663,25 +9663,438 @@ Nédélec-Element benötigt.
Damit haben wir gezeigt, dass die Zerlegung über die Ecken bzw. Kanten eines Gitters die Bedingungen für die Konvergenz von Mehrgittermethoden erfüllen.
\chapter{Nichtlineare Gleichungen}
Mehrgitterverfahren funktionieren auch für manche nichtlinearen Probleme, aber die Theorie
dahinter ist viel weniger gut verstanden.
\medskip
Es gibt prinzipiell zwei unterschiedliche Ansätze:
\begin{enumerate}
\item Löse das Problem durch ein Newton(-artiges) Verfahren, d.h.\ approximiere es
durch eine Folge von linearen Problemen. Löse diese linearen Probleme mit einem
Mehrgitterverfahren.
\item Wende das Mehrgitterverfahren direkt auf das nichtlineare Problem an.
\end{enumerate}
Ansatz 1)\todo{fest verdrahtet!} funktioniert häufig nicht schlecht, aber Ansatz~2
ist konzeptionell interessanter. Wir beschäftigen uns hier deshalb nur mit Ansatz~2.
\chapter{Mehrgitter für DG-Verfahren}
\section{Nichtlineare Teilraumkorrekturverfahren}
\chapter{Algebraische Mehrgitterverfahren}
Die grundlegende Idee der Mehrgitterverfahren ändert sich für nichtlineare Probleme nicht:
\begin{itemize}
\item Ein einfaches nichtlineares Verfahren entfernt die hochfrequenten Anteile
des Fehlers.
\item Die niederfrequenten Anteile können auf einem gröberen Gitter behandelt werden.
\end{itemize}
Wie sehen nichtlineare Glätter aus?
\chapter{Nichtlineare Gleichungen}
\medskip
Bisher haben wir Probleme der folgenden Art betrachtet: Finde ein $x \in X$
so dass
\begin{equation*}
a(x,y) = (f,y)
\qquad
\forall y \in X.
\end{equation*}
Dabei war $a(\cdot,\cdot) : X \times X \to \R$ linear in beiden Argumenten.
\medskip
Im Folgenden betrachten wir wieder Probleme der Bauart
\begin{equation}
\label{eq:generic_nonlinear_problem}
a(x,y) = (f,y)
\qquad
\forall y \in X,
\end{equation}
aber $a(\cdot,\cdot)$ darf jetzt nichtlinear \emph{im ersten Argument} sein.
\begin{example}
Die $p$-Laplace-Gleichung ist
\begin{equation*}
- \div (\abs{\nabla u}^{p-2} \nabla u) = 0.
\end{equation*}
Testen mit einer Funktion $\varphi$ ergibt
\begin{equation*}
\int_\Omega \abs{\nabla u}^{p-2} \langle \nabla u, \nabla \varphi \rangle = \text{Randterme}.
\end{equation*}
Die ist ein Problem der Art~\eqref{eq:generic_nonlinear_problem}, und die Form $a(u,\varphi)$ ist linear in $\varphi$.
\end{example}
Wir konstruieren jetzt Schwarz-Verfahren für das nichtlineare Problem~\eqref{eq:generic_nonlinear_problem}.
Sei dafür wieder $\{X_i\}_{i=1}^n$ eine Zerlegung von $X$ in Teilräume, nicht
notwendigerweise direkt.
\medskip
Schwarz-Verfahren für lineare Gleichungen bestanden daraus, dass wir die Defektgleichung
\todo{Prüfen!}
\begin{equation}
\label{eq:schwache_nichtlineare_defektgleichung}
a(c,w) = (f,w) - a(u^k,w)
\qquad
\forall w \in \X_i
\end{equation}
in einem Teilraum $X_i$ gelöst haben, und das Ergebnis $c \in X_i$ als Korrektur benutzt haben:
\begin{equation*}
u^{k+1} = u^k + c.
\end{equation*}
Verschiedene Reihenfolgen und Kombinationen von Teilräumen ergaben die verschiedenen
Schwarz-Verfahren.
\bigskip
Im linearen Fall konnte man die Defektgleichung~\eqref{eq:schwache_nichtlineare_defektgleichung}
als $a(\cdot,\cdot)$-orthogonale Projektion des Fehlers $u^* - u^k$ auf den Teilraum $X_i$
interpretieren. Das geht jetzt nicht mehr.
\medskip
Ansonsten kann man aber die Schwarz-Verfahren auch für nichtlineare Probleme durchführen.
\begin{itemize}
\item Die Teilprobleme~\eqref{eq:schwache_nichtlineare_defektgleichung} löst man dann
z.B.\ mit einem Newton-Löser.
\item Wobei natürlich im allgemeinen Fall völlig unklar ist ob es überhaupt eine
Lösung gibt. Oder vielleicht gleich mehrere.
\end{itemize}
Wir würden jetzt gerne wissen unter welchen Bedingungen solche Schwarz-Verfahren
konvergieren, und ob sie immer noch Glättungseigenschaften haben.
\medskip
Rigorose Ergebnisse gibt es allerdings nur in wenigen Spezialfällen.
Das Folgende stammt aus einem Artikel von \citet{carstensen:1997}.
\medskip
In gewissem Sinne handelt es sich um die einfachsten nichtlinearen Probleme.
\todo[inline]{Erklären dass manche Probleme Minimierungsprobleme sind.}
Sei $\phi : X \to \R$ ein Fréchet-differenzierbares Funktional mit
uniform-elliptischer und Lipschitz-stetiger Fréchet-Ableitung $D\phi$.
\medskip
Das bedeutet dass es zwei Konstanten $0 < \alpha, L < \infty$ gibt so dass
für alle $u,v \in X$
\begin{align*}
\alpha \norm{u-v}_X^2 + D\phi(u)(v-u) & \le \phi(v) - \phi(u) \\
\norm{D\phi(u)(\cdot) - D\phi(v)(\cdot)}_{X^*} & \le L \norm{u-v}_X.
\end{align*}
\begin{exercise}
Zeigen Sie: Aus der ersten Bedingung folgt dass $\phi$ \emph{stark konvex} ist,
dass also
\begin{equation*}
(1-t)\phi(v_1) + t\phi(v_2)
\ge
\phi((1-t)v_1 + tv_2) + t(1-t)\frac{\alpha}{2} \norm{v_1 -v_2}^2
\end{equation*}
für alle $v_1, v_2 \in X$ und alle $t \in [0,1]$.
\todo[inline]{Bin nicht sicher ob $\alpha$ oder $\frac{\alpha}{2}$ richtig ist.}
\end{exercise}
Gesucht ist jetzt der eindeutige Minimierer von $\phi$ über $X$.
\bigskip
Das eben beschriebene Szenario beinhaltet schon ein paar interessante Probleme,
aber wir betrachten dennoch einen etwas allgemeineren Fall.
\medskip
Sei jetzt $J : X \to \R \cup \{ \infty \}$ von der Form
\begin{equation*}
J = \phi + \psi
\end{equation*}
mit $\phi$ wie oben.
\medskip
Ja, wir lassen tatsächlich Funktionwerte $\infty$ zu! In der konvexen Analysis
ist das gang und gäbe.
\medskip
Das Funktional $\psi : X \to \R \cup \{ \infty \}$ soll konvex und unterhalbstetig
sein. Weiterhin soll es separierbar bzgl.\ den Teilräumen $X_i$ sein.
Damit meinen wir dass für alle $(x_1,\dots,x_N) \in X_1 \times \dots X_N$
\begin{equation*}
\psi \Big( \sum_{j=1}^N x_j\Big) = \sum_{j=1}^N \psi(x_j).
\end{equation*}
Außerdem brauchen wir dass für alle $x_j \in X_j$ und $y_j \in \sum_{k=1,k\neq j}^N X_k$
\begin{equation*}
\psi(x_j + P_j y_j) = \psi(x_j).
\end{equation*}
\todo[inline]{Definieren $P_j$!}
\todo[inline]{Diese Bedingung besser erklären!}
\bigskip
Wir betrachten das folgende multiplikative Schwarz-Verfahren.
\begin{itemize}
\item Sei $u_j \in X$ die aktuelle Iterierte.
\item Für alle $j=1,\dots, N$
\begin{equation*}
u_{n + \frac{j}{N}} = \argmin_{v \in u_{n+\frac{j-1}{N}} + X_j} J(v).
\end{equation*}
\end{itemize}
\begin{exercise}
Zeige: Wenn $J$ quadratisch ist, also
\begin{equation*}
J(v) = \frac{1}{2} a(v,v) - (f,v)
\end{equation*}
mit einer symmetrischen, elliptischen Bilinearform $a(\cdot,\cdot)$,
dann erhält man genau das multiplikative Schwarz-Verfahren aus Kapitel~\ref{}.
\end{exercise}
Da $J$ strikt konvex und koerzitiv ist hat jedes der lokalen Minimierungsprobleme
eine eindeutige Lösung. Der Algorithmus ist also durchführbar.
\begin{exercise}
Zeigen Sie dass $J$ koerzitiv ist.
\end{exercise}
\begin{theorem}
Sei $u$ der Minimierer von $J$ in $X$, uns sei $(u_\nu)$ die durch das Schwarz-Verfahren
erzeugte Folge mit Startwert $u_0$. Setze
\begin{align*}
q & \colonequals \frac{\gamma}{1+\gamma} \\
\gamma & \colonequals N C_X^2 L^2 \frac{1}{2\alpha^2} \\
C_0 & \colonequals 2(1+\gamma)\alpha^{-1} (J(u_0) - J(u)).
\end{align*}
Dann gilt
\begin{equation*}
\norm{u - u_\nu}_X^2 \le C_0 q^\nu.
\end{equation*}
\end{theorem}
Einen Beweis für den glatten Fall $\psi = 0$ findet sich bei
\citet[Theorem~I.3]{lions}.
\begin{proof}
\begin{itemize}
\item Sei $\nu = n + \frac{j}{N} \ge 1$.
\item Nach Konstruktion ist $u_\nu$ der Minimierer von $J$ in $X_j$.
\item Deshalb hat $J(\cdot + u_\nu)|_{X_j}$ sein Minimum in $0$.
\item Sei $\partial J$ das Subdifferential von $J$.
\todo[inline]{Das müssen wir definieren...}
\item Es ist $0 \in \partial J(u_\nu)|_{X_j}$, und deshalb\todo{Warum?}
\begin{equation*}
D\phi(u_\nu)(\eta) \le \psi(u_\nu - \eta) - \psi(u_\nu)
\qquad
\forall \eta \in X_j.
\end{equation*}
\item Zusammen mit der Elliptizität von $D\phi$ erhalten wir
\begin{align*}
\alpha \norm{u_\nu - u_{\nu - \frac{1}{N}}}^2
& \le
\phi(u_{\nu - \frac{1}{N}}) - \phi(u_\nu) + D\phi(u_\nu)(u_\nu - u_{\nu - \frac{1}{N}}) \\
& \le
\phi(u_{\nu - \frac{1}{N}}) - \phi(u_\nu) + \psi(u_{\nu - \frac{1}{N}}) - \psi(u_\nu) \\
& =
J(u_{\nu - \frac{1}{N}}) - J(u_\nu).
\end{align*}
\end{itemize}
Jetzt nutzen wir die Zerlegung in Teilräume, und zerlegen den Fehler
\begin{equation*}
u_\nu - u = \sum_{k = j - N+1}^j P_k(u_\nu - u).
\end{equation*}
Dabei sind die Indizes mod $N$ zu verstehen.
\medskip
Sei $k \in \{ j - N+1, \dots, j\}$.
Wir rechnen
\begin{align*}
D\phi(u_{n+\frac{k}{N}})(\sum_{m = j-N+1}^k P_m(u_\nu - u))
& =
D\phi(u_{n+\frac{k}{N}})(\sum_{m = j-N+1}^{k-1} P_m(u_\nu - u))
+ D\phi(u_{n+\frac{k}{N}})(P_k(u_\nu - u)) \\
& \text{(wegen Linearität von $D\phi$ im zweiten Argument)} \\
& \le
D\phi(u_{n+\frac{k}{N}})(\sum_{m = j-N+1}^{k-1} P_m(u_\nu - u))
+ \psi(u_{n + \frac{k}{N}} - P_k(u_\nu - u)) \\
& \qquad - \psi(u_{n + \frac{k}{N}}).
\end{align*}
Indem wir diese Abschätzung nacheinander für $k=j, j-1, \dots, j-N+1$
anwenden bekommen wir
\begin{multline*}
D\phi(u_\nu)(u_\nu - u)
\le
\sum_{k=j-N+1}^j \Big( \psi(u_{n+\frac{k}{N}} - P_k(u_\nu - u)) - \psi(u_{n+\frac{k}{N}})\Big) \\
+
\sum_{k=j-N+1}^j \Big(D\phi(u_{n+\frac{k}{N}})(\cdot) - D\phi(u_{n+\frac{k-1}{N}})(\cdot)\Big)
\Big(\sum_{m=j-N+1}^{k-1} P_m(u_\nu - u)\Big)
\end{multline*}
Das schätzen wir weiter ab, und erhalten
\begin{align*}
D\phi(u_\nu)(u_\nu - u)
& \le
\sum_{k=j-N+1}^j \Big( \psi(u_{n+\frac{k}{N}} - P_k(u_\nu - u)) - \psi(u_{n+\frac{k}{N}})\Big) \\
& +
\Bigg|\sum_{k=j-N+1}^j \Big(D\phi(u_{n+\frac{k}{N}})(\cdot) - D\phi(u_{n+\frac{k-1}{N}})(\cdot)\Big)
\Big(\sum_{m=j-N+1}^{k-1} P_m(u_\nu - u)\Big) \Bigg| \\
& \le
\sum_{k=j-N+1}^j \Big( \psi(u_{n+\frac{k}{N}} - P_k(u_\nu - u)) - \psi(u_{n+\frac{k}{N}})\Big) \\
& +
L\sum_{k=j-N+1}^j \norm{u_{n+\frac{k}{N}} - u_{n+\frac{k-1}{N}}}_{X^*}
\qquad (\text{Lipschitz-Stetigkeit von $D\phi$}) \\
& \cdot C_X \norm{u_\nu - u}
\qquad (\text{Stabilität der Zerlegung $\{X_i\}$})
\end{align*}
\paragraph{Nächster Teilschritt} \mbox{}
Als nächstes schätzen wir den nichtglatten Term
\begin{equation*}
\sum_{k=j-N+1}^j \Big( \psi(u_{n+\frac{k}{N}} - P_k(u_\nu - u)) - \psi(u_{n+\frac{k}{N}})\Big)
\end{equation*}
ab. Dazu nutzen wir die Separabilität von $\psi$.
\medskip
Nach Konstruktion des Algorithmus ist
\begin{equation*}
u_nu - u_{n+\frac{k}{N}}
\in
\sum_{m=k+1}^j X_m
\qquad
\forall k \in \{ j-N+1, \dots, j\}.
\end{equation*}
Wegen der Separierbarkeit~\eqref{} erhält man
\begin{equation*}
\psi(P_k(u_{n+\frac{k}{N}} - u_\nu) + P_k u) = \psi(P_k u)
\end{equation*}
und
\begin{equation*}
\psi(P_k(u_{n+\frac{k}{N}})) = \psi(P_k u_\nu).
\end{equation*}
Jetzt schauen wir uns einen Summanden von~\eqref{} an:
\begin{align*}
\psi(u_{n+\frac{k}{N}} - P_k(u_\nu - u)) - \psi(u_{n + \frac{k}{N}})
& =
\psi(\sum_{m=j-N+1}^j P_m (u_{n+\frac{k}{N}} - P_k(u_\nu - u))) - \psi(\sum_{m=j-N+1}^j P_m u_{n + \frac{k}{N}}) \\
& =
\sum_{m=j-N+1}^j\psi( P_m (u_{n+\frac{k}{N}} - P_k(u_\nu - u))) - \sum_{m=j-N+1}^j \psi(P_m u_{n + \frac{k}{N}}) \\
& \qquad (\text{Separierbarkeit})
\end{align*}
Wegen [2.8] erhält man
\begin{equation*}
= \psi( P_k u_{n+\frac{k}{N}} - P_k P_k(u_\nu - u)) - \psi(P_k u_{n + \frac{k}{N}})
\end{equation*}
Wegen [3.7] erhält man
\begin{equation*}
\psi(u_{n+\frac{k}{N}} - P_k(u_\nu - u)) - \psi(u_{n + \frac{k}{N}})
=
\psi(\P_k u) - \psi(P_k u_\nu).
\end{equation*}
\paragraph{Nächster Teilschritt} \mbox{}
Das bauen wir in [3.5] ein. [3.5] sagt
\begin{multline*}
D\phi(u_\nu)(u_\nu - u)
\le
C_X L \norm{u - u_\nu}_X \cdot \sum_{k=j-N+1}^j \norm{u_{n+\frac{k}{N}} - u_{n+\frac{k-1}{N}}}_X \\
+
\sum_{k=j-N+1}^j (\psi(u_{n+\frac{k}{N}} - P_k(u_\nu -u)) - \psi(u_{n+\frac{k}{N}})).
\end{multline*}
Mit der Abschätzung für $\psi$ ergibt das
\begin{multline*}
D\phi(u_\nu)(u_\nu - u)
\le
C_X L \norm{u - u_\nu}_X \cdot \sum_{k=j-N+1}^j \norm{u_{n+\frac{k}{N}} - u_{n+\frac{k-1}{N}}}_X \\
+
\underbrace{\sum_{k=j-N+1}^j (\psi(P_ku) - \psi(P_k u_\nu))}_{=\psi(u) - \psi(u_\nu), \text{wegen ???}}.
\end{multline*}
Wegen~\eqref{} wiederum ist
\begin{equation*}
\norm{u_{n + \frac{k}{N}} - u_{n + \frac{k-1}{N}}}^2
\le
\frac{1}{\alpha} \Big( f(u_{n + \frac{k-1}{N}}) - f(u_{n + \frac{k}{N}})\Big),
\end{equation*}
und deshalb
\begin{equation*}
D\phi(u_\nu)(u_\nu - u)
\le
C_X L \frac{1}{\sqrt{\alpha}}
\sum_{k=j-N+1}^j \Big( f(u_{n + \frac{k-1}{N}}) - f(u_{n + \frac{k}{N}}) \Big)^\frac{1}{2}.
\end{equation*}
Schreibe zur Abkürzung
\begin{equation*}
\delta_\mu \colonequals f(u_\mu) - f(u)
\qquad \text{und} \qquad
\epsilon_\mu \colonequals \norm{u-u_\mu}_X.
\end{equation*}
Dann erhält man
\begin{align*}
\alpha \epsilon_\nu^2 + \delta_\nu
& \le
C_X L \alpha^{-1/2} \epsilon_\nu \cdot
\sum_{\mu = \nu -1 + \frac{1}{N}} (\delta_{\mu - \frac{1}{N}} - \delta_\mu)^{1/2} \\
%
& \le
\gamma (\delta_{\nu-1} - \delta_\nu) + \frac{1}{2} \alpha \epsilon_\nu^2.
\end{align*}
Daraus wiederum folgt
\begin{equation*}
\frac{\alpha}{2(1+\gamma)} \cdot \epsilon^2_\nu + \delta_\nu
\le
q \cdot \delta_{\nu-1}.
\end{equation*}
Daraus folgt zum einen
\begin{equation*}
\delta_\nu \le \delta_0 \cdot q^{[\nu]}
\end{equation*}
\todo[inline]{Carstensen sagt nicht was er mit den eckigen Klammern meint...}
und zu zum anderen die Behauptung
\begin{equation*}
\norm{u - u_\nu}_X^2 \le C_0 \cdot q^{[\nu]}.
\qedhere
\end{equation*}
\end{proof}
\section{Nichtlineare Teilraumkorrekturverfahren}
\section{Das Full Approximation Scheme (FAS)}
\section{Abgeschnittenes Newton-Mehrgitter (TNNMG)}
\chapter{Mehrgitter für DG-Verfahren}
\chapter{Algebraische Mehrgitterverfahren}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\printbibliography
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment