Commit 38fff493 authored by Sander, Oliver's avatar Sander, Oliver
Browse files

Ein Kapitel über die klassische Mehrgitter-Konvergenztheorie

Nur der Zweigitterbeweis. Dem Buch von Braess entnommen.
parent 3f961c85
......@@ -31,6 +31,7 @@
\usepackage{amsthm}
\usepackage{bm}
\usepackage{mathtools}
\usepackage{mathabx} % for \vvvert
\usepackage{colonequals}
\usepackage{enumitem}
......@@ -85,6 +86,7 @@
\DeclarePairedDelimiter{\norma}{\Vert}{\Vert_{A}}
\DeclarePairedDelimiter{\abs}{\lvert}{\rvert}
\DeclarePairedDelimiter{\norm}{\lVert}{\rVert}
\DeclarePairedDelimiter{\triplenorm}{\vvvert}{\vvvert}
\theoremstyle{plain} %Text ist Kursiv
\newtheorem{theorem}{Satz}[chapter]
......@@ -1820,6 +1822,580 @@ Ein möglicher Ausweg: Die Hierarchische-Basis-Methode~\cite{bank_dupont_yserent
\item Die Methode hat aber andere Nachteile.
\end{itemize}
\section{Die klassische Konvergenztheorie}
In den 1970ern und 1980ern wurde eine erste Konvergenztheorie entwickelt,
in der man gut sieht wie die Glättungseigenschaft des Glätters und die
Approximationseigenschaft des groben Gitters zusammenspielen.
\medskip
\begin{itemize}
\item Es wird zunächst die Konvergenz des Zweigitterverfahrens gezeigt.
Dies ist der komplizierte Teil.
\item Danach interpretiert man das Mehrgitterverfahren als
Zweigitterverfahren mit gestörtem Grobgitterlöser, und erhält dann
relativ einfach die Konvergenz des Mehrgitterverfahrens.
\end{itemize}
Unsere Darstellung hier folgt~\citet[Kapitel~V.2]{braess:2013}.
Sei $V_h$ ein Raum von Lagrange-Elementen, und $V_{2h}$ ein Teilraum von $V_h$.
\bigskip
Hier ist die Beweisidee für das Zweigitterverfahren:
\begin{enumerate}
\item Man beweist eine Glättungseigenschaft
\begin{equation*}
\norm{S^\nu e_h}_X
\le
\frac{c}{\nu} h^{-2} \norm{e_h}_Y.
\end{equation*}
Dabei ist $e_h$ der aktuelle Fehler, $S$ ist der Glätter, und $\nu$ ist die Anzahl der Glättungsschritte.
\item Man beweist eine Approximationseigenschaft
\begin{equation*}
\norm{e_h - \hat{e}_{2h}}_Y \le ch^2 \norm{e_h}_X.
\end{equation*}
Dabei ist $\hat{e}_{2h}$ die $a(\cdot,\cdot)$-orthogonale Projektion von $e_h$ auf $V_{2h}$.
\end{enumerate}
Wenn man Glättung und Grobgitterkorrektur hintereinanderschaltet,
dann kürzen sich $h^{-2}$ und $h^2$, und man erhält eine $h$-unabhängige
Kontraktion, wenn $\nu$ groß genug ist.
\bigskip
Um Konvergenz des Zweigitterverfahrens zeigen zu können machen wir
folgende Annahmen:
\begin{enumerate}
\item Das Randwertproblem ist $H^1$- oder $H^1_0$-elliptisch.
\item Das Randwertproblem ist $H^2$-regulär.
\item Es wird die nodale Basis benutzt mit einer bestimmten Skalierung benutzt.
\item Als Glätter wird die Richardson-Iteration benutzt:
\begin{equation*}
x^{k+1} = x^k + \eta (b - Ax^k).
\end{equation*}
\end{enumerate}
(Kurioserweise behauptet~\citeauthor{braess:2013} in \cite{braess:2013}
dass die Jacobi-Iteration benutzt werde, tatsächlich ist es aber
die Richardson-Iteration.)
Die Richardson-Iteration ist kein sonderlich gutes Glättungsverfahren,
aber zum Erläutern der zentralen Beweisideen reicht es.
\subsection{Diskrete Normen}
Die Beweisidee oben verwendet zwei Normen:
\begin{itemize}
\item $\norm{\cdot}_Y$ misst die Größe des Fehlers.
\item $\norm{\cdot}_X$ misst die Glattheit des Fehlers
(z.B.\ indem sie höhere Ableitungen betrachtet als $\norm{\cdot}_Y$).
\end{itemize}
\begin{itemize}
\item Für die Fehler würden wir gerne eine $L^2$-Norm nehmen (tatsächlich
wird es keine $L^2$-Norm, ab etwas ähnliches).
\item Für $\norm{\cdot}_X$ brauchen wir etwas Neues.
Denn: Wir kennen bereits Abschätzungen der Art
\begin{equation*}
\norm{e_h - \hat{e}_{2h} }_{L^2} \le c h^2 \norm{e_h}_X,
\end{equation*}
da war $\norm{\cdot}_X$ die $H^2$-Norm.
Die ist aber für viele Finite-Elemente-Funktionen nicht definiert.
(Weil die meistens in $H^1$, aber nicht in $H^2$ sind.)
\end{itemize}
\begin{definition}
Sei $A \in \R^{N \times N}$ symmetrisch und positiv definit, und $s \in \R$.
Für alle $x \in \R^N$ definiere
\begin{equation*}
\triplenorm{x}_s \colonequals \sqrt{x^T A^s x}.
\end{equation*}
\end{definition}
\emph{Alternative Definition:} Sei $\{z_i\}_{i=1}^N$ eine orthonormale Eigenvektorbasis von $A$ zu den
Eigenwerten $\{\lambda_i\}$, und sei $x = \sum_{i=1}^N c_i z_i$. Dann ist
\begin{equation*}
\triplenorm{x}_s^2
=
x^T A^s x
=
(\sum_i c_i z_i)^T A^s (\sum_i c_i z_i)
=
\sum_i \lambda_i^s c_i^2.
\end{equation*}
Eigenschaften:
\begin{itemize}
\item For alle $s \in \R$ ist $\triplenorm{\cdot}_s$ eine Norm.
\item $\triplenorm{\cdot}_0$ ist die Euklidische Norm.
\item Logarithmische Konvexität: Für $r,t \in \R$ und $s = \frac{1}{2}(r+t)$ ist
\begin{equation*}
\abs{x^T A^s y}
\le
\triplenorm{x}_r \cdot \triplenorm{y}_t,
\end{equation*}
und insbesondere
\begin{equation*}
\triplenorm{x}_s \le \triplenorm{x}_r^{\frac{1}{2}} \cdot \triplenorm{x}_t^{\frac{1}{2}}.
\end{equation*}
\end{itemize}
Hier sind noch weitere interessante Eigenschaften (die hier aber nicht gebraucht werden):
\begin{itemize}
\item Monotonie: Sei $\alpha$ die Elliptizitätskonstante von $A$.
Dann ist
\begin{equation*}
\alpha^{-\frac{t}{2}} \triplenorm{x}_t
\ge
\alpha^{-\frac{s}{2}} \triplenorm{x}_s
\qquad
\text{für $t \ge s$}.
\end{equation*}
\item Shift-Theorem: Sei $Ax=b$, und $s \in \R$. Dann ist
\begin{equation*}
\triplenorm{x}_{s+2} = \triplenorm{b}_s.
\end{equation*}
\begin{proof}
\begin{equation*}
\triplenorm{x}_{s+2}
=
x^T A^{s+2} x
=
x^T A^T A^s A x
=
b^T A^s b
=
\triplenorm{b}_s.
\qedhere
\end{equation*}
\end{proof}
\end{itemize}
\subsection{Glättung}
Der folgende Hilfssatz besagt, dass das gedämpfte Richardson-Verfahren glättet.
\begin{lemma}[\citet{braess:2013}, Hilfssatz V.2.4]
\label{lem:mg_klassisch_glaettung}
Sei $\eta < 1 / \lambda_\textup{max}(A)$, $s \in \R$ und $t>0$.
Für die Iteration
\begin{equation*}
x^{\nu+1} = (I - \eta A) x^\nu
\end{equation*}
gilt
\begin{equation*}
\triplenorm{x^\nu}_{s+t}
\le
c \eta^{-\frac{t}{2}} \nu^{-\frac{t}{2}} \triplenorm{x^0}_s
\end{equation*}
mit $c = (\frac{t}{2e})^{t/2}$.
\end{lemma}
Hier sieht man dass das Richardson-Verfahren ein sehr schlechter Glätter ist:
Der geforderte Dämpfungswert $\eta < 1 / \lambda_\text{max}$ ist normalerweise
eine sehr kleine Zahl.
\begin{proof}
\begin{itemize}
\item Entwickle $x^0$ in einer orthonormalen Eigenvektorbasis von $A$:
\begin{equation*}
x^0 = \sum_{i=1}^N c_i z_i.
\end{equation*}
\item Dann ist nach $\nu$ Glättungsschritten
\begin{align*}
x^\nu
& =
(I - \eta A)^\nu \sum_{i=1}^N c_i z_i \\
& =
\sum_{i=1}^N (1- \eta \lambda_i)^\nu c_i z_i.
\end{align*}
\item Da nach Annahme $0 < \eta \lambda_i < 1$ gilt, folgt aus der
alternativen Definition von $\triplenorm{\cdot}_s$
\begin{align*}
\triplenorm{x^\nu}^2_{s+t}
& =
\sum_{i=1}^N \lambda_i^{s+t} \Big[ (1-\eta \lambda_i)^\nu c_i \Big]^2 \\
& =
\eta^{-t} \sum_{i=1}^N (\eta \lambda_i)^t (1 - \eta \lambda_i)^{2\nu} \lambda_i^s c_i^2 \\
& \le
\eta^{-t} \cdot \max_{0 \le \zeta \le 1} \Big[\zeta^t (1- \zeta)^{2\nu}\Big]
\underbrace{\sum_{i=1}^N \lambda_i^s c_i^2}_{=\triplenorm{x^0}_x^2}.
\end{align*}
\item Um das Maximum abzuschätzen betrachten wir die Funktion $\zeta \mapsto \zeta(1-\zeta)^p$ für $p > 0$.
Sie nimmt ihr Maximum bei $\zeta = \frac{1}{p+1}$ an.
Also ist in $[0,1]$
\begin{equation*}
\zeta(1-\zeta)^p
\le
\frac{1}{p+1} \Big( \frac{p}{p+1} \Big)^p
=
\frac{1}{p} \cdot \frac{1}{\big(1 + \frac{1}{p}\big)^{p+1}}
\le
\frac{1}{p} \cdot \frac{1}{e}.
\end{equation*}
\item Wähle jetzt $p = 2\nu / t$. Damit folgt $\zeta (1-\zeta)^\frac{2\nu}{t} \le \frac{t}{2\nu e}$,
und mithin
\begin{equation*}
\max_{0 \le \zeta \le 1} \big[\zeta^t(1-\zeta)^{2\nu} \big]
\le
\Big( \frac{1}{\frac{2\nu}{t}} \cdot \frac{1}{e}\Big)^t
=
\Big( \frac{t}{2\nu e} \Big)^t.
\qedhere
\end{equation*}
\end{itemize}
\end{proof}
Man kann hier also tatsächlich eine feinere durch eine gröbere Topologie abschätzen.
\subsection{Diskrete Normen für Finite-Elemente-Funktionen}
Die diskreten Normen $\triplenorm{\cdot}_s$ waren bisher für Elemente
des $\R^N$ definiert worden. Wir brauchen sie aber auch für Finite-Elemente-Funktionen.
\medskip
Um die $h$-Abhängigkeit richtig zu sehen brauchen wir die skalierte Steifigkeitsmatrix
\begin{equation*}
A_h \colonequals h^d A,
\qquad
\text{also}
\qquad
(A_h)_{ij} = a(h^{-\frac{d}{2}} \varphi_i, h^{-\frac{d}{2}} \varphi_j)
\end{equation*}
(dabei ist $d$ die Raumdimension).
\medskip
Die besondere Skalierung lässt sich so interpretieren dass war statt der normalen
Knotenbasis eine skalierte Knotenbasis mit
\begin{equation*}
\varphi_i (a_j) = h^{-\frac{d}{2}} \delta_{ij}
\end{equation*}
benutzen. Dabei sind die $a_i$ die Lagrange-Punkte des Finite-Elemente-Raums.
\medskip
Damit definieren wir jetzt diskrete Normen.
\begin{definition}
Für jede Finite-Elemente-Funktion $v_h$ und $s \in \R$ setzen wir
\begin{equation*}
\triplenorm{v_h}_s
\colonequals
\sqrt{h^d \Big( \sum_{i,j=1}^N v_h(a_i) (A_h^s)_{ij} v_h(a_j)\Big)}.
\end{equation*}
\end{definition}
Dies ist die Stelle die benutzt dass wir die (skalierte) Knotenbasis für den
Finite-Elemente-Raum benutzen.
\begin{lemma}[\citet{braess:2013}, Hilfssatz~V.2.5]
Mit einer von $h$ unabhängigen Zahl $c$ gilt
\begin{equation*}
c^{-1} \norm{v_h}_0 \le \triplenorm{v_h}_0 \le c \norm{v_h}_0,
\end{equation*}
sowie
\begin{equation*}
c^{-1} \norm{v_h}_1
\le
\triplenorm{v_h}_1
\le
c \norm{v_h}_1.
\end{equation*}
\end{lemma}
\begin{proof}
Die Ungleichungen~\eqref{} folgen direkt aus der
$H^1$-Elliptizität von $a(\cdot,\cdot)$, und der Tatsache dass
\begin{equation*}
\triplenorm{v_h}_1^2
=
a(v_h,v_h).
\end{equation*}
Um~\eqref{} zu beweisen transformiere elementweise
auf das Referenzelement. Dort sind
\begin{equation*}
\norm{v_h}_{0,T} = \sqrt{\int_T v_h^2\,dx}
\qquad \text{und} \qquad
\sqrt{\sum_{a_i \in T} v_h(a_i)^2}
\end{equation*}
äquivalent (da beides Normen in endlich-dimensionalen Räumen sind).
\medskip
Der Faktor $h^d$ kommt von der Transformation aufs/vom Referenzelement.
\end{proof}
Für größere $s$ gilt keine $h$-unabhängige Äquivalenz zu
entsprechenden Sobolev-Normen.
\begin{lemma}[\citet{braess:2013}, Hilfssatz~2.6]
Es gilt
\begin{equation*}
\lambda_\text{min}(A_h) \ge c^{-1}
\qquad \text{und} \qquad
\lambda_\text{max}(A_h) \le ch^{-2},
\end{equation*}
mit einer von $h$ unabhängigen Zahl $c$.
\end{lemma}
\begin{proof}
\begin{itemize}
\item $A$ ist s.p.d., man kann die Eigenwerte also mit dem Rayleigh-Quotienten
abschätzen.
\item Es gilt die inverse Abschätzung
\begin{equation*}
\norm{v_h}_1 \le ch^{-1} \norm{v_h}_0.
\end{equation*}
Deshalb ist
\begin{align*}
\lambda_\text{max}(A_h)
& =
\sup_{x\neq 0} \frac{x^T A_h x}{x^Tx} = \sup_{v_h \in S_h} \frac{\triplenorm{v_h}_1^2}{\triplenorm{v_h}_0^2}
\le
c \sup_{v_h \in S_h} \frac{\norm{v_h}_1^2}{\norm{v_h}_0^2}
\le
ch^{-2}.
\end{align*}
\item Ohne inverse Abschätzung, dafür mit $\norm{v_h}_1 \ge \norm{v_h}_0$ erhält man
\begin{align*}
\lambda_\text{min}(A_h)
& =
\inf_{x\neq 0} \frac{x^TA_h x}{x^T x} = \inf_{v_h \in S_h} \frac{\triplenorm{v_h}_1^2}{\triplenorm{v_h}_0^2}
\ge
c^{-1} \inf_{v_h \in S_h} \frac{\norm{v_h}_1^2}{\norm{v_h}_0^2}
\ge
c^{-1}.
\qedhere
\end{align*}
\end{itemize}
\end{proof}
Hier sieht man übrigens dass für jeden Eigenvektor $\phi_h$
von $A_h$ der entsprechende Eigenwert in etwa
\begin{equation*}
\frac{\norm{\phi_h}_1^2}{\norm{\phi_h}_0^2}
\end{equation*}
ist. Deshalb gehören wieder die großen Eigenwerte zu den stark
oszillierenden Eigenfunktionen.
\subsection{Approximationseigenschaft}
\begin{lemma}[\citet{braess:2013}, Hilfssatz~2.8]
\label{lem:mg_klassisch_approximation}
Für ein $v \in S_h$ sei $u_{2h}$ die Lösung der schwachen Gleichung
\begin{equation*}
a(v-u_{2h},w) = 0
\qquad
\forall w \in S_{2h}.
\end{equation*}
Außerdem sei $\Omega$ konvex, oder habe einen glatten Rand.
Dann ist
\begin{equation*}
\norm{v - u_{2h}}_0 \le c h^2 \triplenorm{v}_2.
\end{equation*}
\end{lemma}
\begin{proof}
Nach Voraussetzung ist das Problem $H^2$-regulär. Wir können deshalb das
Aubin--Nitsche Lemma anwenden (siehe~\citet[Kapitel~II.7]{braess:2013}
oder Skript PDENM, Kapitel~4.2), und erhalten
\begin{equation}
\label{eq:mg_klassisch_h1_approximation}
\norm{v - u_{2h}}_0 \le ch \norm{v - u_{2h}}_1.
\end{equation}
Als nächstes argumentieren wir wie beim Céa-Lemma:
\begin{align*}
\alpha \norm{v - u_{2h}}^2_1
& \le
a(v-u_{2h}, v- u_{2h}) \\
& =
a(v-u_{2h}, v) \qquad (\text{da $u_{2h} \in S_{2h}$}) \\
& =
(v - u_{2h}, A_h v) \qquad (\text{Def.\ von $A_h$}).
\end{align*}
\todo[inline]{Achtung: Eigentlich haben wir $A_h$ ja als Matrix definiert!}
Jetzt nützen wir die logarithmische Konvexität von $\triplenorm{\cdot}_s$ mit
$r = 0$, $s=1$, $t=2$ und erhalten
\begin{equation*}
\alpha \norm{v - u_{2h}}_1^2
\le
\triplenorm{v - u_{2h}}_0 \cdot \triplenorm{v}_2
\le
c \norm{v - u_{2h}}_0 \cdot \triplenorm{v}_2.
\end{equation*}
Mit~\eqref{eq:mg_klassisch_h1_approximation} bekommen wir
\begin{equation*}
\alpha \norm{v - u_{2h}}_1^2 \le ch\norm{v - u_{2h}}_1 \cdot \triplenorm{v}_2.
\end{equation*}
Kürzen ergibt
\begin{equation*}
\alpha \norm{v - u_{2h}}_1 \le ch \triplenorm{v}_2,
\end{equation*}
und zusammen mit~\eqref{eq:mg_klassisch_h1_approximation} bekommt man
\begin{equation*}
\norm{v-u_{2h}}_0 \le ch^2 \triplenorm{v}_2.
\qedhere
\end{equation*}
\end{proof}
\subsection{Konvergenz des Zweigitterverfahrens}
Wir arbeiten jetzt die ursprüngliche Idee aus, und zwar mit
\begin{equation*}
\norm{\cdot}_X = \triplenorm{\cdot}_2,
\qquad
\norm{\cdot}_Y = \triplenorm{\cdot}_0.
\end{equation*}
Bevor wir die Konvergenz des Zweigitterverfahrens zeigen wiederholen wir
kurz den Algorithmus.
\medskip
Sei $u_h^k$ die aktuelle Iterierte in $V_h$.
\begin{enumerate}
\item \emph{Glättungsschritt:} Man führe $\nu$ Glättungsschritte durch:
\begin{equation*}
h_h^{k,1} = S^\nu u_h^k
\end{equation*}
mit
\begin{equation*}
S u_h^k \colonequals u_h^k + \eta ( b - A_h u_h^k).
\end{equation*}
\item \emph{Grobgitterkorrektur:} Man berechne die Lösung $\hat{v}_{2h} \in V_{2h}$ von
\begin{equation*}
a(v,w) = (b,w) - a(u_h^{k,1},w) \qquad \forall w \in V_{2h}
\end{equation*}
in $V_{2h}$.
\item Setze $u_h^{k+1} = u_h^{k,1} + \hat{v}_{2h}$.
\end{enumerate}
Anders als unsere bisherige Darstellung ist dieser Algorithmus nicht in
Euklidischen Räumen sondern in Finite-Elemente-Räumen formuliert.
Deshalb, und weil die Räume $V_{2h}$ und $V_h$ geschachtelt sind verschwinden in
dieser Darstellung die Prolongationsoperatoren.
\begin{theorem}[\citet{braess:2013}, Konvergenzsatz~V.2.9]
Unter den eingangs gemachten Voraussetzungen gilt für das Zweigitterverfahren
mit Richardson-Glättung und $\eta = 1/\lambda_\text{max}(A_h)$
\begin{equation*}
\norm{u^{k+1} - u^*}_0
\le
\frac{c}{\nu} \norm{u^{k} - u^*}_0,
\end{equation*}
wobei $c$ eine von $h$ unabhängige Zahl, und $\nu$ die Anzahl der Vorglättungsschritte ist.
\end{theorem}
\begin{proof}
Für die Vorglättung ist
\begin{equation*}
u^{k,1} - u^*
=
(I - \eta A_h)^\nu (u^k - u^*).
\end{equation*}
Dann gilt
\begin{align*}
\triplenorm{u^{k,1} - u^*}_2
& \le
\frac{1}{\eta} \frac{c}{\nu} \triplenorm{u^k - u^*}_0
\qquad
(\text{Lemma~\ref{lem:mg_klassisch_glaettung}}) \\
& \le
\frac{c}{\nu} h^{-2} \norm{u^k - u^*}_0
\qquad
(\text{Lemma~\ref{}}).
\end{align*}
Die Grobgitterkorrektur $u_{2h}$ löst
\begin{equation*}
a(u^{k,1} + u_{2h}, w) = (f,w)_0
\qquad
\forall w \in V_{2h}.
\end{equation*}
Außerdem ist natürlich
\begin{equation*}
a(u^*,w) = (f,w)_0
\qquad
\forall w \in V_h.
\end{equation*}
Da $V_{2h} \subset V_h$ kann man die beiden Gleichungen subtrahieren
und erhält
\begin{equation*}
a(u^{k,1} - u^* + u_{2h},w) = 0
\qquad
\forall w \in V_{2h}.
\end{equation*}
Lemma~\ref{lem:mg_klassisch_approximation} (Approximationseigenschaft) sagt
\begin{equation*}
\norm{v - u_{2h}}_0 \le c h^2 \triplenorm{v}_2
\qquad
\forall v \in V_h.
\end{equation*}
Das wenden wir mit $v = u_h^* - u^{k,1}$ an:
\begin{equation*}
\norm{u^*_h - u^{k,1} - u_{2h}}_0
\le
ch^2 \triplenorm{u_h^* - u^{k,1}}_2.
\end{equation*}
Die neue Iterierte ist gerade $u^{k,1} + u_{2h}$, und deshalb
\begin{align*}
\norm{u_h^* - u^{k+1}}_0
& \le
ch^2 \triplenorm{u_h^* - u^{k,1}}_2 \\
& \le
c h^2 \frac{c}{\nu} h^{-2} \norm{u^k - u_h^*}_0.
\qedhere
\end{align*}
\end{proof}
\chapter{Teilraumkorrekturverfahren}
......
Supports Markdown
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment