Commit 76f0fbdf authored by Sander, Oliver's avatar Sander, Oliver
Browse files

Separater Konvergenzbeweis für glatte Probleme

Der Beweis für nichtglatte Probleme ist zu technisch.
parent 47e2e82a
Pipeline #6803 passed with stage
in 3 minutes and 13 seconds
......@@ -193,3 +193,12 @@ year = {2013}
number = {3},
pages = {177--190}
}
@InProceedings{lions:1987,
author = {Pierre-Louis Lions},
title = {On the {S}chwarz alternating method},
booktitle = {Proceedings of the First International Symposium of Domain Decomposition Methods for Partial Differential Equations},
pages = {1–-42},
year = {1987},
editor = {Roland Glowinski and Gene Golub and G. Meurant and J. Periaux},
}
......@@ -9665,7 +9665,7 @@ Damit haben wir gezeigt, dass die Zerlegung über die Ecken bzw. Kanten eines Gi
\chapter{Nichtlineare Gleichungen}
Mehrgitterverfahren funktionieren auch für manche nichtlinearen Probleme, aber die Theorie
Mehrgitterverfahren funktionieren auch für manche nichtlineare Probleme, aber die Theorie
dahinter ist viel weniger gut verstanden.
\medskip
......@@ -9686,15 +9686,21 @@ ist konzeptionell interessanter. Wir beschäftigen uns hier deshalb nur mit Ans
Die grundlegende Idee der Mehrgitterverfahren ändert sich für nichtlineare Probleme nicht:
\begin{itemize}
\item Ein einfaches nichtlineares Verfahren entfernt die hochfrequenten Anteile
\item Ein einfaches iteratives Verfahren (\glqq Glätter\grqq{}) entfernt die hochfrequenten Anteile
des Fehlers.
\item Die niederfrequenten Anteile können auf einem gröberen Gitter behandelt werden.
\end{itemize}
\bigskip
Wie sehen nichtlineare Glätter aus?
\medskip
Sei $X$ wieder ein endlichdimensionaler Hilbertraum.
\smallskip
Bisher haben wir Probleme der folgenden Art betrachtet: Finde ein $x \in X$
so dass
\begin{equation*}
......@@ -9716,32 +9722,36 @@ Im Folgenden betrachten wir wieder Probleme der Bauart
aber $a(\cdot,\cdot)$ darf jetzt nichtlinear \emph{im ersten Argument} sein.
\begin{example}
Die $p$-Laplace-Gleichung ist
Die $p$-Laplace-Gleichung ist (mit einem $p>1$)
\begin{equation*}
- \div (\abs{\nabla u}^{p-2} \nabla u) = 0.
\end{equation*}
Testen mit einer Funktion $\varphi$ ergibt
\begin{equation*}
\int_\Omega \abs{\nabla u}^{p-2} \langle \nabla u, \nabla \varphi \rangle = \text{Randterme}.
a(u,\varphi)
\colonequals
\int_\Omega \abs{\nabla u}^{p-2} \langle \nabla u, \nabla \varphi \rangle \,dx + \text{Randterme}
= 0.
\end{equation*}
Die ist ein Problem der Art~\eqref{eq:generic_nonlinear_problem}, und die Form $a(u,\varphi)$ ist linear in $\varphi$.
Dies ist ein Problem der Art~\eqref{eq:generic_nonlinear_problem}, und die Form $a(\cdot,\cdot)$ ist linear im zweiten Argument.
\end{example}
\bigskip
Wir konstruieren jetzt Schwarz-Verfahren für das nichtlineare Problem~\eqref{eq:generic_nonlinear_problem}.
Sei dafür wieder $\{X_i\}_{i=1}^n$ eine Zerlegung von $X$ in Teilräume, nicht
Sei dafür $\{X_i\}_{i=1}^n$ eine Zerlegung von $X$ in Teilräume, nicht
notwendigerweise direkt.
\medskip
Schwarz-Verfahren für lineare Gleichungen bestanden daraus, dass wir die Defektgleichung
\todo{Prüfen!}
\begin{equation}
\label{eq:schwache_nichtlineare_defektgleichung}
a(c,w) = (f,w) - a(u^k,w)
\qquad
\forall w \in \X_i
\forall w \in X_i
\end{equation}
in einem Teilraum $X_i$ gelöst haben, und das Ergebnis $c \in X_i$ als Korrektur benutzt haben:
in einem Teilraum $X_i$ gelöst, und das Ergebnis $c \in X_i$ als Korrektur benutzt haben:
\begin{equation*}
u^{k+1} = u^k + c.
\end{equation*}
......@@ -9761,23 +9771,58 @@ Ansonsten kann man aber die Schwarz-Verfahren auch für nichtlineare Probleme du
\item Die Teilprobleme~\eqref{eq:schwache_nichtlineare_defektgleichung} löst man dann
z.B.\ mit einem Newton-Löser.
\item Wobei natürlich im allgemeinen Fall völlig unklar ist ob es überhaupt eine
Lösung gibt. Oder vielleicht gleich mehrere.
\item Wobei natürlich im allgemeinen Fall völlig unklar ist ob~\eqref{eq:schwache_nichtlineare_defektgleichung}
überhaupt eine Lösung hat. Oder vielleicht gleich mehrere.
\end{itemize}
\subsection{Multiplikative Schwarz-Verfahren für stark konvexe Minimierungsprobleme}
Wir würden jetzt gerne wissen unter welchen Bedingungen solche Schwarz-Verfahren
konvergieren, und ob sie immer noch Glättungseigenschaften haben.
\medskip
Rigorose Ergebnisse gibt es allerdings nur in wenigen Spezialfällen.
Das Folgende stammt aus einem Artikel von \citet{carstensen:1997}.
Das Folgende stammt aus einem Artikel von \citet{lions:1987}, die Notation
ist aber von \citet{carstensen:1997}.
\medskip
In gewissem Sinne handelt es sich um die einfachsten nichtlinearen Probleme.
Manche partielle Differentialgleichungen lassen sich als Minimierungsprobleme
auf einem Funktionenraum schreiben.
\todo[inline]{Erklären dass manche Probleme Minimierungsprobleme sind.}
\begin{example}
\label{ex:pde_minimization_problems}
Lösungen der Laplace-Gleichung $- \Delta u = 0$ minimieren die sogenannte
\emph{Dirichlet-Energie}
\begin{equation*}
\mathcal{J} : H^1(\Omega) \to \R
\qquad
\mathcal{J}(u) \colonequals \frac{1}{2} \int_\Omega \norm{\nabla u}^2\,dx.
\end{equation*}
Allgemeiner minimieren Lösungen der $p$-Laplace-Gleichung die Energie
\begin{equation*}
\mathcal{J}^p : W^{1,p}(\Omega) \to \R
\qquad
\mathcal{J}^p(u) \colonequals \frac{1}{p} \int_\Omega \norm{\nabla u}^p\,dx.
\end{equation*}
\end{example}
\begin{exercise}
Zeigen Sie dass die Fréchet-Ableitung von $\mathcal{J}^p$ an der Stelle $u$
gerade
\begin{equation*}
D\mathcal{J}^p(u)(\cdot)
=
\int_\Omega \norm{\nabla u}^{p-2} \langle \nabla u, \nabla \cdot\rangle\,dx
\end{equation*}
ist.
\end{exercise}
Manche solcher Funktionale, z.B.\ die aus Beispiel~\ref{ex:pde_minimization_problems}
sind konvex. In gewissem Sinne sind das die einfachsten nichtlinearen Probleme.
\bigskip
Sei $\phi : X \to \R$ ein Fréchet-differenzierbares Funktional mit
uniform-elliptischer und Lipschitz-stetiger Fréchet-Ableitung $D\phi$.
......@@ -9791,6 +9836,8 @@ für alle $u,v \in X$
\norm{D\phi(u)(\cdot) - D\phi(v)(\cdot)}_{X^*} & \le L \norm{u-v}_X.
\end{align*}
Gesucht ist jetzt der eindeutige Minimierer von $\phi$ in $X$.
\begin{exercise}
Zeigen Sie: Aus der ersten Bedingung folgt dass $\phi$ \emph{stark konvex} ist,
dass also
......@@ -9803,12 +9850,222 @@ für alle $u,v \in X$
\todo[inline]{Bin nicht sicher ob $\alpha$ oder $\frac{\alpha}{2}$ richtig ist.}
\end{exercise}
Gesucht ist jetzt der eindeutige Minimierer von $\phi$ über $X$.
\bigskip
Das eben beschriebene Szenario beinhaltet schon ein paar interessante Probleme,
aber wir betrachten dennoch einen etwas allgemeineren Fall.
Wir betrachten das folgende multiplikative Schwarz-Verfahren.
\begin{itemize}
\item Sei $u_n \in X$ die aktuelle Iterierte.
\item Für alle $j=1,\dots, N$ berechne
\begin{equation*}
u_{n + \frac{j}{N}} = \argmin_{v \in u_{n+\frac{j-1}{N}} + X_j} \phi(v).
\end{equation*}
\end{itemize}
Eine Iteration des Schwarz-Verfahrens ist also eine Folge von Minimierungsproblemen
in den Räumen $X_1,\dots,X_N$.
\begin{exercise}
Zeige: Wenn $\phi$ quadratisch ist, also
\begin{equation*}
\phi(v) = \frac{1}{2} a(v,v) - (f,v)
\end{equation*}
mit einer symmetrischen, elliptischen Bilinearform $a(\cdot,\cdot)$,
dann erhält man genau das multiplikative Schwarz-Verfahren aus Kapitel~\ref{}.
\end{exercise}
Da $\phi$ stark konvex und koerzitiv ist hat jedes der lokalen Minimierungsprobleme
eine eindeutige Lösung. Der Algorithmus ist also durchführbar.
\begin{exercise}
Zeigen Sie dass $\phi$ koerzitiv ist, dass also $\phi(v) \to \infty$ für $v \to \infty$.
\end{exercise}
Für den Konvergenzsatz brauchen wir noch Projektionsoperatoren $P_j : X \to X_j$
so dass
\begin{equation*}
P_1 + \cdots + P_N = \operatorname{Id}.
\end{equation*}
Weiterhin brauchen wir eine Stabilitätsbedingung: Es soll eine Konstante $C_X > 0$
geben, so dass für alle Teilmengen $\Lambda \subseteq \{1,\dots,N\}$ und alle $x \in X$
\begin{equation*}
\norm[\Big]{\sum_{j \in \Lambda} P_j x }_X
\le
C_X \norm{x}_X.
\end{equation*}
Das ist ähnlich wie die Stabilitätsbedingung aus dem vorigen Kapitel,
aber nicht ganz das gleiche.
\begin{theorem}[\citet{lions:1987}, \citet{carstensen:1997}]
Sei $u$ der Minimierer von $J$ in $X$, und sei $(u_\nu)$ die durch das Schwarz-Verfahren
erzeugte Folge mit Startwert $u_0$. Setze
\begin{align*}
\gamma & \colonequals \frac{N C_X^2 L^2 }{2\alpha^2} \\
q & \colonequals \frac{\gamma}{1+\gamma} \\
C_0 & \colonequals \frac{2(1+\gamma)}{\alpha} (\phi(u_0) - \phi(u)).
\end{align*}
Dann gilt
\begin{equation*}
\norm{u - u_\nu}_X^2 \le C_0 q^\nu.
\end{equation*}
\end{theorem}
\begin{proof}
Sei $\nu = n + \frac{j}{N} \ge 1$.
\begin{itemize}
\item Nach Konstruktion ist $u_\nu$ der Minimierer von $\phi$ in $X_j$.
\item Weil $\phi$ Fréchet-differenzierbar ist gilt
\begin{equation}
\label{eq:derivative_is_zero}
D\phi(u_\nu)(\eta) = 0
\qquad
\forall \eta \in X_j.
\end{equation}
\item Zusammen mit der Elliptizität von $D\phi$ können wir den Abstand
zwischen aufeinanderfolgenden Iterierten durch Funktionswerte abschätzen
\begin{align}
\nonumber
\alpha \norm{u_\nu - u_{\nu - \frac{1}{N}}}^2
& \le
\phi(u_{\nu - \frac{1}{N}}) - \phi(u_\nu) + D\phi(u_\nu)(u_\nu - u_{\nu - \frac{1}{N}}) \\
\label{eq:values_bound_square_smooth}
& =
\phi(u_{\nu - \frac{1}{N}}) - \phi(u_\nu).
\end{align}
\end{itemize}
Jetzt zerlegen wir den Fehler in Teilräume
\begin{equation*}
u_\nu - u = \sum_{k = j - N+1}^j P_k(u_\nu - u).
\end{equation*}
Dabei sind die Indizes mod $N$ zu verstehen.
\medskip
Für ein $k \in \{ j - N+1, \dots, j\}$ rechnen wir
\begin{align*}
D\phi(u_{n+\frac{k}{N}})\Big(\sum_{m = j-N+1}^k P_m(u_\nu - u)\Big)
& =
D\phi(u_{n+\frac{k}{N}})\Big(\sum_{m = j-N+1}^{k-1} P_m(u_\nu - u)\Big)
+ \underbrace{D\phi(u_{n+\frac{k}{N}})(P_k(u_\nu - u))}_{\text{$=0$, wegen~\eqref{eq:derivative_is_zero}}} \\
& \text{(wegen Linearität von $D\phi$ im zweiten Argument)} \\
& =
D\phi(u_{n+\frac{k}{N}})\Big(\sum_{m = j-N+1}^{k-1} P_m(u_\nu - u)\Big)
\end{align*}
Indem wir diese Abschätzung nacheinander für $k=j, j-1, \dots, j-N+1$
anwenden bekommen wir
\begin{multline*}
D\phi(u_\nu)(u_\nu - u)
\le
\sum_{k=j-N+1}^j \Big(D\phi(u_{n+\frac{k}{N}}) - D\phi(u_{n+\frac{k-1}{N}})\Big)
\Big(\sum_{m=j-N+1}^{k-1} P_m(u_\nu - u)\Big)
\end{multline*}
Das schätzen wir weiter ab, und erhalten
\begin{align}
\nonumber
D\phi(u_\nu)(u_\nu - u)
& \le
\sum_{k=j-N+1}^j \norm[\bigg]{D\phi(u_{n+\frac{k}{N}}) - D\phi(u_{n+\frac{k-1}{N}})}_{X^*}
\norm[\bigg]{\sum_{m=j-N+1}^{k-1} P_m(u_\nu - u)}_X \\
\nonumber
& \le
L\sum_{k=j-N+1}^j \norm{u_{n+\frac{k}{N}} - u_{n+\frac{k-1}{N}}}_X
\qquad (\text{Lipschitz-Stetigkeit von $D\phi$}) \\
\label{eq:bound_on_Dphi_smooth}
& \qquad \cdot C_X \norm{u_\nu - u}_X
\qquad (\text{Stabilität der Zerlegung $\{X_i\}$})
\end{align}
Wegen~\eqref{eq:values_bound_square_smooth} ist
\begin{equation*}
\norm{u_{n + \frac{k}{N}} - u_{n + \frac{k-1}{N}}}^2
\le
\frac{1}{\alpha} \Big( \phi(u_{n + \frac{k-1}{N}}) - \phi(u_{n + \frac{k}{N}})\Big),
\end{equation*}
und deshalb
\begin{equation*}
D\phi(u_\nu)(u_\nu - u)
\le
C_X L \norm{u_\nu - u}_X \frac{1}{\sqrt{\alpha}}
\sum_{k=j-N+1}^j \Big( \phi(u_{n + \frac{k-1}{N}}) - \phi(u_{n + \frac{k}{N}}) \Big)^\frac{1}{2}.
\end{equation*}
Schreibe zur Abkürzung
\begin{equation*}
\delta_\mu \colonequals \phi(u_\mu) - \phi(u)
\qquad \text{und} \qquad
\epsilon_\mu \colonequals \norm{u-u_\mu}_X.
\end{equation*}
Aus der Elliptizität von $D\phi$ erhält man
\begin{equation*}
\alpha \norm{u_\nu - u}_X^2 + \phi(u_\nu) - \phi(u)
\le
D\phi(u_\nu)(u_\nu - u),
\end{equation*}
und mit der Kurzschrift
\begin{align*}
\alpha \epsilon_\nu^2 + \delta_\nu
& \le
D\phi(u_\nu)(u_\nu - u) \\
& \le
C_X L \alpha^{-1/2} \epsilon_\nu \cdot
\sum_{k = j - N+1}^j (\delta_{n + \frac{k-1}{N}} - \delta_{n+\frac{k}{N}})^{1/2} \\
& \le
C_X L \alpha^{-1/2} \epsilon_\nu \cdot
\sum_{\mu = \nu -1 + \frac{1}{N}}^j (\delta_{\mu - \frac{1}{N}} - \delta_\mu)^{1/2} \\
%
& \le
\gamma (\delta_{\nu-1} - \delta_\nu) + \frac{1}{2} \alpha \epsilon_\nu^2.
\end{align*}
\todo[inline]{Indexverschiebung im vorletzten Schritt prüfen!}
Daraus wiederum folgt
\begin{equation*}
\frac{\alpha}{2(1+\gamma)} \cdot \epsilon^2_\nu + \delta_\nu
\le
q \cdot \delta_{\nu-1}.
\end{equation*}
Daraus folgt zum einen
\begin{equation*}
\delta_\nu
\le
q \cdot \delta_{\nu-1} - \frac{\alpha}{2(1+\gamma)} \epsilon_\nu^2
\le
q \cdot \delta_{\nu-1}
\le
\delta_0 \cdot q^{\nu},
\end{equation*}
\todo[inline]{Carstensen schreibt hier $q^{[\nu]}$ sagt nicht
was er damit genau meint...}
und zum anderen die Behauptung
\begin{align*}
\norm{u - u_\nu}_X^2 = \epsilon_\nu^2
& \le
\frac{2(1+\gamma)}{\alpha} (q \delta_{\nu-1} - \delta_\nu) \\
& \le
??? \\
& \le
\underbrace{\frac{2(1+\gamma)}{\alpha} (\phi(u_0) - \phi(u))}_{=C_0} \cdot q^{\nu}\\
& =
C_0 \cdot q^{\nu}.
\qedhere
\end{align*}
\end{proof}
\subsection{Erweiterung auf nichtdifferenzierbare Funktionale}
Wir betrachten jetzt noch einen etwas allgemeineren Fall.
Dieser wurde von \citeauthor{carstensen:1997} in~\cite{carstensen:1997} untersucht.
\medskip
......@@ -9836,38 +10093,21 @@ Außerdem brauchen wir dass für alle $x_j \in X_j$ und $y_j \in \sum_{k=1,k\neq
\label{eq:nonsmooth_independence}
\psi(x_j + P_j y_j) = \psi(x_j).
\end{equation}
\todo[inline]{Definieren $P_j$!}
\todo[inline]{Diese Bedingung besser erklären!}
\bigskip
Wir betrachten das folgende multiplikative Schwarz-Verfahren.
\begin{itemize}
\item Sei $u_j \in X$ die aktuelle Iterierte.
\item Für alle $j=1,\dots, N$
\begin{equation*}
u_{n + \frac{j}{N}} = \argmin_{v \in u_{n+\frac{j-1}{N}} + X_j} J(v).
\end{equation*}
\end{itemize}
\begin{exercise}
Zeige: Wenn $J$ quadratisch ist, also
\begin{example}
Ein Beispiel für so ein Funktional ist
\begin{equation*}
J(v) = \frac{1}{2} a(v,v) - (f,v)
X = \R^N,
\qquad
X_i = \{ v \in \R^N \; : \; v_j = 0 \text{falls $i \neq j$} \},
\qquad
\psi(v) = \sum_{i=1}^N \abs{v_i}.
\end{equation*}
mit einer symmetrischen, elliptischen Bilinearform $a(\cdot,\cdot)$,
dann erhält man genau das multiplikative Schwarz-Verfahren aus Kapitel~\ref{}.
\end{exercise}
Da $J$ strikt konvex und koerzitiv ist hat jedes der lokalen Minimierungsprobleme
eine eindeutige Lösung. Der Algorithmus ist also durchführbar.
\begin{exercise}
Zeigen Sie dass $J$ koerzitiv ist.
\end{exercise}
\end{example}
Man erhält genau das gleiche Konvergenzresultat wie im glatten Fall.
\begin{theorem}
Sei $u$ der Minimierer von $J$ in $X$, und sei $(u_\nu)$ die durch das Schwarz-Verfahren
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment