Commit 2aeee1cb authored by Sander, Oliver's avatar Sander, Oliver
Browse files

Verbessere Text zur Mehrgitterkonvergenz

parent 23e994de
Pipeline #6368 passed with stage
in 52 seconds
......@@ -114,3 +114,17 @@ year = {2013}
year = {2009},
pages = {1--44}
}
@article{arnold1997preconditioning,
title={{Preconditioning in $H$(div) and applications}},
author={Arnold, D. N. and Falk, R. S. and Winther, R.},
journal={Mathematics of computation},
year={1997}
}
@article{arnold2000multigrid,
title={{Multigrid in $H$(div) and $H$(curl)}},
author={Arnold, D. N. and Falk, R. S. and Winther, R.},
journal={Numerische Mathematik},
year={2000}
}
......@@ -59,6 +59,9 @@
\DeclareMathOperator*{\argmin}{arg\,min}
\newcommand{\Gammatight}[1]{{\Gamma\hspace{-0.8mm}_{#1}}} % A \Gamma with a subscript, and extra kerning
\newcommand{\Radd}{R^\textup{add}}
\newcommand{\Rmult}{R^\textup{mult}}
% Bold letters
\newcommand{\bn}{\mathbf{n}}
\newcommand*\bu{\bm{u}}
......@@ -4090,51 +4093,80 @@ Damit finden wir in der Literatur u.a.\ folgende Varianten:
als Vorkonditionierer in einem CG-Verfahren einsetzen.
\end{enumerate}
Aber selbst Carsten kriegt den Beweis nicht mehr hin...
\section{Mehrgitter als Teilraumkorrekturverfahren}
\section{Gitterunabhängige Konvergenz des Mehrgitterverfahrens}
\label{chaMGconvergence}
Der Text im Rest dieses Kapitels basiert zu weiten Teilen auf der Masterarbeit~\cite{stolzmann:2020}.
Dieses Kapitel basiert zu weiten Teilen auf der Masterarbeit~\cite{stolzmann:2020}.
\bigskip
Sei $X_{1} \subset X_{2} \subset \dots \subset X_{J} = X $ eine Folge von geschachtelten,
endlichdimensionalen Hilberträumen
mit Skalarprodukten $a(\cdot,\cdot)$ und $(\cdot,\cdot)$.
Der Ansatz aus dem vorigen Abschnitt hat nicht funktioniert. Dort hatten wir
folgendes versucht:
\begin{itemize}
\item Benutze sehr viele eindimensionale Teilräume
\begin{equation*}
X_i^j = \operatorname{spann} \{\varphi_i^j\},
\end{equation*}
einen für jede Knotenbasisfunktion $\varphi_i^j$, $j=1,\dots,n_i$ auf jeder
Ebene $i=0,\dots, J$.
\item Berechne die Projektionen auf die $X_i^j$ \emph{exakt}.
\end{itemize}
Stattdessen wählen wir jetzt folgenden alternativen Ansatz:
\begin{itemize}
\item Betrachte nur die größeren Räume $X_i$.
\item Interpretiere den Glätter auf Ebene $i$ als \emph{inexakte Projektion} auf $X_i$.
\end{itemize}
Dafür müssen wir die Teilraumkorrekturtheorie etwas erweitern:
Sie muss inexakte Projektionen erlauben.
\subsection{Der Konvergenzbeweis}
Sei also $X$ wieder ein endlichdimensionaler Hilbert-Raum mit Skalarprodukten
$a(\cdot,\cdot)$ und $(\cdot,\cdot)$.
\medskip
Sei $X_{1} \subset X_{2} \subset \dots \subset X_{J} = X $ eine Folge von geschachtelten
Teilräumen.
\bigskip
Wir definieren den Operator $A_{j} : X_{j}\to X_{j}$ durch
Für jedes $j=1,\dots, J$ definieren wir den Operator $A_j : X_j\to X_j$ durch
\begin{equation*}
a(x,y) = (A_{j}x,y) \quad \forall x,y\in X_{j}.
\end{equation*}
Beachte, dass $A_{j}$ für alle $j\in \set{1,\dots ,J }$ positiv definit und selbstadjungiert bzgl. $(\cdot,\cdot)$ ist.
Der Operator $A_j$ ist für alle $j\in \set{1,\dots ,J }$ positiv definit und selbstadjungiert bzgl.\ $(\cdot,\cdot)$.
\bigskip
Wir definieren für $j=1,\dots ,J$ die $a(\cdot,\cdot)$-Projektion $P_{j} : X \to X_{j}$ folgendermaßen:
Für alle $x\in X$ ist $P_{j}x\in X_{j}$ das Element für das
Die $a(\cdot,\cdot)$-Projektion $P_{j} : X \to X_{j}$ ist wieder durch
\begin{equation*}
a(x,y) = a(P_{j}x,y) \quad \forall y \in X_{j}
a(P_{j}x,y) = a(x,y)
\qquad \forall y \in X_{j}
\end{equation*}
gilt.
definiert.
\bigskip
Definiere die $(\cdot,\cdot)$-Projektion $Q_{j}\colon X \to X_{j}$ für $j=1,\dots ,J$ analog:
Zusätzlich benötigen wir jetzt auch die $(\cdot,\cdot)$-orthogonale Projektion
$Q_j : X \to X_{j}$ für $j=1,\dots ,J$:
Für alle $x\in X$ ist $Q_{j}x\in X_{j}$ das Element für das
\begin{equation*}
(x,y) = (Q_{j}x,y) \quad \forall y\in X_{j}
(Q_jx,y) = (x,y) \quad \forall y\in X_{j}
\end{equation*}
gilt. Damit wird das Residuum auf das grobe Gitter eingeschränkt.
gilt. Damit wird das Residuum auf die groben Gitter eingeschränkt.
\bigskip
Da die $X_i$ geschachtelt sind haben die Projektionsoperatoren einige besondere Eigenschaften.
\begin{lemma}
Für die Projektionsoperatoren $P_{l}$ und $P_{j}$ gilt für alle $j,l\in \set{1,\dots,J}$ mit $j\leq l$
Für die Projektionsoperatoren $P_j$ und $P_l$ gilt für alle $1 \le j \le l \le J$
\begin{equation}\label{MGpjpleqpj}
P_{j}P_{l} = P_{j}
\end{equation}
......@@ -4150,7 +4182,8 @@ Anschaulich besagt das Lemma, dass es irrelevant ist, von welchem Raum aus auf d
Seien $x,y\in X$.
Dann gilt
\begin{align*}
a(P_{j}P_{l}x,y) &= a(P_{l}x, \underbrace{P_{j}y}_{\in X_{j}\subset X_{l}}) \\
a(P_{j}P_{l}x,y) &= a(P_{l}x, \underbrace{P_{j}y}_{\in X_{j}\subset X_{l}})
\qquad (\text{$P_j$ ist $a(\cdot,\cdot)$-selbstadjungiert})\\
&= a(x,P_{j}y) \\
&= a(P_{j}x,P_{j}y)\\
&= a(P_{j}x,y).
......@@ -4159,7 +4192,7 @@ Anschaulich besagt das Lemma, dass es irrelevant ist, von welchem Raum aus auf d
\begin{equation*}
a((P_{j}P_{l}-P_{j})x,y) =0 \quad \forall y\in X.
\end{equation*}
Mit $y= (P_{j}P_{l}-P_{j})x$ folgt Gleichung \eqref{MGpjpleqpj}.
Mit $y= (P_{j}P_{l}-P_{j})x$ folgt Gleichung~\eqref{MGpjpleqpj}.
Gleichung~\eqref{MGplpjeqpj} erhalten wir mit
\begin{equation*}
......@@ -4167,9 +4200,10 @@ Anschaulich besagt das Lemma, dass es irrelevant ist, von welchem Raum aus auf d
\end{equation*}
\end{proof}
Die Projektionen $Q_j$ und $P_j$ stehen miteinander in Verbindung:
\begin{lemma}\label{QjAleqAjPj}
Für $A_{l}$ und die Projektionsoperatoren $Q_{j}$ und $P_{j}$ gilt für alle $j,l\in \set{1,\dots,J}$ mit $j \leq l$
\begin{lemma}\label{lem:QjAleqAjPj}
Für $A_{l}$ und die Projektionsoperatoren $Q_{j}$ und $P_{j}$ gilt für alle $1 \le j \le l \le J$
\begin{equation*}
Q_{j}A_{l} = A_{j}P_{j}.
\end{equation*}
......@@ -4188,25 +4222,12 @@ Anschaulich besagt das Lemma, dass es irrelevant ist, von welchem Raum aus auf d
\end{proof}
Sei nun $R_{j}\colon X_{j} \to X_{j}$ ein bzgl. $(\cdot,\cdot)$ selbstadjungierter,
positiv definiter Vorkonditionierer für ein lineares Verfahren.
Dieses Verfahren wird der \emph{Glätter} des Mehrgitter-Verfahrens.
Wir denken hauptsächlich wieder an das Jacobi-Verfahren ($R_j = \eta D_j^{-1}$)
oder an das Gauß--Seidel-Verfahren ($R_j = (D_j + L_j)^{-1}$).
\todo[inline]{Nein, es muss das symmetrische GS-Verfahren sein, weil nur das selbstadjungiert ist!}
Es gibt aber auch noch viele andere Glätter (für spezielle Probleme).
Wir definieren den abstrakten Mehrgitter-Operator $\Theta_{J}$.\\
Sei $\Theta_{1} \colonequals A_{1}^{-1}$ und sei $\Theta_{j}$ für $j=1,\dots ,J$
über die folgende Rekursion mit $f \in X_{j}$ definiert.
Eine Iteration des Mehrgitterverfahrens ist:
Wir definieren den abstrakten Mehrgitter-Operator $\Theta_{J}$ rekursiv:
\begin{itemize}
\item Sei $\Theta_1 \colonequals A_{1}^{-1}$.
\item Für $j=1,\dots ,J$ sei $\Theta_j$ definiert über
\begin{algorithm}[H]\label{MGVerfahrenAlg}
\begin{algorithm}[H]\label{MGVerfahrenAlg}
\DontPrintSemicolon
$x_{0} \gets 0 \in X_{j}$\\
\For {$i=1,\dots ,m$}{
......@@ -4219,57 +4240,97 @@ Eine Iteration des Mehrgitterverfahrens ist:
\Return $y_{m}$
\end{algorithm}
\end{itemize}
Dabei sei $R_{j}\colon X_{j} \to X_{j}$ ein bzgl.\ $(\cdot,\cdot)$ selbstadjungierter,
positiv definiter Vorkonditionierer für ein lineares Verfahren.
Dieses Verfahren wird der \emph{Glätter} des Mehrgitter-Verfahrens.
Wir denken hauptsächlich wieder an das Jacobi-Verfahren ($R_j = \eta D_j^{-1}$)
oder an das Gauß--Seidel-Verfahren ($R_j = (D_j + L_j)^{-1}$).
Das Gauß--Seidel-Verfahren $R_j = (D_j + L_j)^{-1}$ geht aber nicht, weil es
nicht symmetrisch ist.
Stattdessen nimmt man
\begin{itemize}
\item Das symmetrische Gauß--Seidel-Verfahren
\item Für die Nachglättung das Rückwarts-Gauß--Seidel-Verfahren.
\end{itemize}
Es gibt aber auch noch viele andere Glätter (für spezielle Probleme).
\bigskip
Wir können jetzt die Konvergenz des Mehrgitterverfahrens zeigen,
wenn die Glätter bestimmte Eigenschaften erfüllen.
\begin{theorem}\label{absMGconvergence}
\begin{theorem}\label{thm:absMGconvergence}
Sei für jedes $j=1,\dots ,J$ der Glätter $R_{j}$ symmetrisch bzgl.\ $(\cdot,\cdot)$,
positiv definit, invertierbar und so, dass er die Bedingungen
\begin{equation}\label{scondition1}
\begin{equation}\label{eq:scondition1}
a([I-R_{j}A_{j}]x,x) \geq 0,\quad \forall x \in X_{j}
\end{equation}
und
\begin{equation}\label{scondition2}
\begin{equation}\label{eq:scondition2}
(R^{-1}_{j}x,x) \leq \alpha a(x,x), \quad \forall x \in (I-P_{j-1})X_{j}
\end{equation}
für eine Konstante $\alpha$ erfüllt.
Dann gilt
\begin{align}
\begin{alignat}{2}
\label{eq:abstract_mg_convergence_lower_bound}
0 \leq & a([I-\Theta_{J}A_{J}]x,x) \qquad \qquad \quad \forall x \in X \\
0 \leq & a([I-\Theta_{J}A_{J}]x,x) & \qquad & \forall x \in X \\
\label{eq:abstract_mg_convergence_upper_bound}
& a([I-\Theta_{J}A_{J}]x,x) \leq \delta a(x,x),\quad \forall x \in X
\end{align}
& a([I-\Theta_{J}A_{J}]x,x) \leq \delta a(x,x), & & \forall x \in X
\end{alignat}
mit $\delta = \frac{\alpha}{\alpha + 2m}$.
\end{theorem}
\todo[inline]{Motiviere die untere Abschätzung!}
Aus diesen zwei Ungleichungen folgt die Konvergenz des Mehrgitterverfahrens:
\begin{itemize}
\item Wegen~\eqref{eq:abstract_mg_convergence_lower_bound} ist
\begin{equation*}
\lambda_\text{min}(I - \Theta_JA_J)
=
\inf _{x \neq 0} \frac{a((I - \Theta_J A_J)x,x)}{a(x,x)}
\ge
0.
\end{equation*}
\todo[inline]{Dafür muss $I - \Theta_J A_J$ selbstadjungiert sein!}
\item Also ist $\rho(I - \Theta_J A_J) = \lambda_\text{max}(I-\Theta_J A_J)$.
\end{itemize}
Aus~\eqref{eq:abstract_mg_convergence_upper_bound} folgt dass
\begin{equation*}
\sup_{\norm{x} \neq 0} \frac{a([I-\Theta_{J}A_{J}]x,x)}{a(x,x)}
=
\lambda_\text{max} ( I - \Theta_J A_J)
=
\delta
\colonequals \frac{\alpha}{\alpha + 2m}
< 1.
\sup_{\norm{x} \neq 0} \frac{a([I-\Theta_{J}A_{J}]x,x)}{a(x,x)}
=
\delta.
\end{equation*}
Damit ist das iterative Verfahren
\begin{equation*}
x_{k+1} = x_{k} + \Theta_{J}(f-A_{J}x_{k})
\end{equation*}
konvergent.
konvergent wenn
\begin{equation*}
\delta
\colonequals \frac{\alpha}{\alpha + 2m}
< 1.
\end{equation*}
Das Verfahren konvergiert gitterunabhängig, wenn wir einen Glätter $R_j$
Das Verfahren konvergiert \emph{gitterunabhängig}, wenn wir einen Glätter $R_j$
so konstruieren können dass $\alpha$ nicht von der Problemgröße abhängt.
Das machen wir in Kapitel~\ref{}.
\begin{proof}[Beweis der unteren Schranke~\eqref{eq:abstract_mg_convergence_lower_bound}]
\begin{proof}[Beweis von Satz~\ref{thm:absMGconvergence}:
Die untere Schranke~\eqref{eq:abstract_mg_convergence_lower_bound}]
Der Beweis wurde \cite{bramble1993multigrid} entnommen.
Aus der Definition des Mehrgitterverfahrens in Algorithmus XYZ
Aus der Definition des Mehrgitterverfahrens
folgt für $j=2,\dots ,J$ die Rekursionsvorschrift
\todo[inline]{Nachrechnen!}
\begin{equation}\label{defRec}
I-\Theta_{j}A_{j} = K_{j}^m[ (I-P_{j-1}) + (I - \Theta_{j-1}A_{j-1})P_{j-1} ]K_{j}^m
\end{equation}
......@@ -4290,6 +4351,8 @@ so konstruieren können dass $\alpha$ nicht von der Problemgröße abhängt.
\end{equation}
d.h.\ $K_{j}$ ist symmetrisch bzgl.\ $a(\cdot,\cdot)$.
\bigskip
Nun zeigen wir via vollständiger Induktion über $j$, dass
\begin{equation}\label{indulowerBound}
a((I-\Theta_{j}A_{j})x,x) \geq 0\quad \forall x\in X_{j}.
......@@ -4297,7 +4360,7 @@ so konstruieren können dass $\alpha$ nicht von der Problemgröße abhängt.
Sei \eqref{indulowerBound} die Induktionshypothese.
Mit der Definition von $\Theta_{1}$ folgt der Induktionsanfang
\begin{equation*}
A((I- \underbrace{ \Theta_{1}A_{1}}_{=I})x,x) = 0 \quad \forall x\in X_{1}.
a((I- \underbrace{ \Theta_{1}A_{1}}_{=I})x,x) = 0 \quad \forall x\in X_{1}.
\end{equation*}
Für den Induktionsschritt von $j-1$ zu $j$ benötigen wir die Gleichung
\begin{equation}\label{idminuspsqrteqidminusp}
......@@ -4305,88 +4368,135 @@ so konstruieren können dass $\alpha$ nicht von der Problemgröße abhängt.
\end{equation}
Dann gilt für ein beliebiges $x\in X_{j}$
\begin{align*}
A((I-\Theta_{j}A_{j})x,x) \stackrela{\eqref{defRec}}{=} A(K_{j}^m(I-P_{j-1})K_{j}^mx,x) \\
&\quad+ A( K_{j}^m(I - \Theta_{j-1}A_{j-1})P_{j-1} K_{j}^mx,x)\\
\stackrela{\eqref{KAsym}}{=} A((I-P_{j-1})K_{j}^mx,K_{j}^mx) \\
&\quad+ A( \underbrace{(I - \Theta_{j-1}A_{j-1})P_{j-1} K_{j}^mx}_{\in X_{j-1}},K_{j}^mx)\\
\stackrela{\eqref{idminuspsqrteqidminusp}}{=} A((I-P_{j-1})K_{j}^mx,(I-P_{j-1})K_{j}^mx) \\
&\quad+ A((I - \Theta_{j-1}A_{j-1})P_{j-1} K_{j}^mu,P_{j-1}K_{j}^mu).
a((I-\Theta_{j}A_{j})x,x)
\stackrela{\eqref{defRec}}{=}
a(K_{j}^m(I-P_{j-1})K_{j}^mx,x) \\
%
&\quad + a(K_{j}^m(I - \Theta_{j-1}A_{j-1})P_{j-1} K_{j}^mx,x)\\
%
\stackrela{\eqref{KAsym}}{=}
a((I-P_{j-1})K_{j}^mx,K_{j}^mx) \\
%
&\quad + a( \underbrace{(I - \Theta_{j-1}A_{j-1})P_{j-1} K_{j}^mx}_{\in X_{j-1}},K_{j}^mx)\\
%
\stackrela{\eqref{idminuspsqrteqidminusp}}{=}
a((I-P_{j-1})K_{j}^mx,(I-P_{j-1})K_{j}^mx) \\
%
&\quad + a((I - \Theta_{j-1}A_{j-1})P_{j-1} K_{j}^m x,P_{j-1}K_{j}^m x).
\end{align*}
Mit der Induktionshypothese und da $A(\cdot,\cdot)$ positiv definit ist, folgt
Mit der Induktionshypothese und da $a(\cdot,\cdot)$ positiv definit ist, folgt
\begin{equation*}
A((I-\Theta_{j}A_{j})x,x) \geq 0.\qedhere
a((I-\Theta_{j}A_{j})x,x) \geq 0.\qedhere
\end{equation*}
\end{proof}
\begin{proof}[Beweis von Theorem \ref{absMGconvergence}]
\begin{proof}[Beweis von Satz~\ref{thm:absMGconvergence}:
Die obere Schranke~\eqref{eq:abstract_mg_convergence_upper_bound}]
Zusammengesetzt aus \cite{bramble1993multigrid} und \cite{arnold1997preconditioning}.
Wir haben in Lemma \ref{MGlowerBound} bereits die Abschätzung nach unten gezeigt.
Wir zeigen die Abschätzung
\begin{equation*}
A([I-\Theta_{J}A_{J}]x,x) \leq \delta A(x,x) \quad \forall x \in X
a([I-\Theta_{J}A_{J}]x,x) \leq \delta a(x,x) \quad \forall x \in X
\end{equation*}
per vollständiger Induktion über $j$.
Definiere $\delta \colonequals \frac{\alpha}{\alpha+2m}$ unabhängig von $j$.\\
durch vollständige Induktion über $j$.
Definiere $\delta \colonequals \frac{\alpha}{\alpha+2m}$ unabhängig von $j$.
Sei
\begin{equation}\label{inducUpperBound}
A([I-\Theta_{j}A_{j}]x,x) \leq \delta A(x,x) \quad \forall x \in X_{j}
a([I-\Theta_{j-1}A_{j-1}]x,x) \leq \delta a(x,x) \quad \forall x \in X_{j-1}
\end{equation}
die Induktionshypothese.
Der Induktionsanfang für $j=1$ folgt mit der Definition von $\Theta_{1} = A_{1}^{-1}$
Der Induktionsanfang für $j=1$ folgt mit der Definition von $\Theta_{1} \colonequals A_{1}^{-1}$
\begin{equation*}
A((I- \underbrace{\Theta_{1}A_{1}}_{=I})x,x) = 0 \quad \forall x\in X_{1}.
a((I- \underbrace{\Theta_{1}A_{1}}_{=I})x,x) = 0 \quad \forall x\in X_{1}.
\end{equation*}
Wir nehmen an, dass \eqref{inducUpperBound} für $j-1$ gilt.
Definiere für eine kompakte Notation $\til x \colonequals K_{j}^m x$.
Dann gilt
\todo[inline]{Hier ist eine Formel die nicht übersetzen wollte.}
% \begin{align*}
% A((I-\Theta_{j}A_{j})x,x) \stackrela{\eqref{defRec}}{=} A((I-P_{j-1})\til x,\til x) + A((I - \Theta_{j-1}A_{j-1})P_{j-1} \til x,P_{j-1} \til x)\\
% \stackrela{\eqref{inducUpperBound}}{\leq} A((I-P_{j-1})\til x,\til x) + \delta A(P_{j-1} \til x,P_{j-1}\til x) \\
% &= A((I-P_{j-1})\til x,\til x) + \delta A(P_{j-1} \til x,P_{j-1}\til x) - \delta A(\til x,\til x) + \delta A(\til x,\til x)\\
% &= A((I-P_{j-1})\til x,\til x) + \delta A((P_{j-1} - I) \til x,\til x) + \delta A(\til x,\til x)\\
% &= (1-\delta)A((I-P_{j-1})\til x,\til x) + \delta A(\til x,\til x)
% \end{align*}
\begin{align*}
a((I-\Theta_{j}A_{j})x,x)
\stackrela{\eqref{defRec}}{=}
a((I-P_{j-1})\til x,\til x) + a((I - \Theta_{j-1}A_{j-1})P_{j-1} \til x,P_{j-1} \til x)\\
%
\stackrela{\eqref{inducUpperBound}}{\leq}
a((I-P_{j-1})\til x,\til x) + \delta a(P_{j-1} \til x,P_{j-1}\til x) \\
%
&=
a((I-P_{j-1})\til x,\til x) + \delta a(P_{j-1} \til x,P_{j-1}\til x) - \delta a(\til x,\til x) + \delta a(\til x,\til x)\\
%
&=
a((I-P_{j-1})\til x,\til x) + \delta a((P_{j-1} - I) \til x,\til x) + \delta a(\til x,\til x)\\
%
&=
(1-\delta)a((I-P_{j-1})\til x,\til x) + \delta a(\til x,\til x).
\end{align*}
Die Bilinearform $(R_{j}^{-1}\cdot,\cdot)$ ist symmetrisch und positiv definit.
Damit kann die Cauchy-Schwarz Ungleichung angewendet werden.
Es gilt
\todo[inline]{Hier ist eine Formel die nicht übersetzen wollte.}
% \begin{align*}
% A((I-P_{j-1})\til x,\til x) &= ((I-P_{j-1})\til x,A_{j}\til x)\\
% &= (R_{j}^{-1} (I-P_{j-1})\til x,R_{j}A_{j}\til x)\\
% \stackrela{\text{Cauchy-Schwarz}}{\leq}(R_{j}^{-1} (I-P_{j-1})\til x,(I-P_{j-1})\til x)^{\frac{1}{2}}( \underbrace{R_{j}^{-1} R_{j}}_{=I}A_{j}\til x,R_{j}A_{j}\til x)^{\frac{1}{2}}\\
% \stackrela{\text{Bedingung }\eqref{scondition2}}{\leq}\sqrt{\alpha}A((I-P_{j-1})\til x,(I-P_{j-1})\til x)^{\frac{1}{2}}A(R_{j}A_{j}\til x,\til x)^{\frac{1}{2}}\\
% \stackrela{\text{Def. }K_{j}}{=}\sqrt{\alpha}A((I-P_{j-1})\til x,\til x)^{\frac{1}{2}}A((I-K_{j})\til x,\til x)^{\frac{1}{2}}.
% \end{align*}
\begin{align*}
a((I-P_{j-1})\til x,\til x)
&=
((I-P_{j-1})\til x,A_{j}\til x)\\
%
&=
(R_{j}^{-1} (I-P_{j-1})\til x,R_{j}A_{j}\til x)\\
%
\stackrela{\text{Cauchy-Schwarz}}{\leq}
(R_{j}^{-1} (I-P_{j-1})\til x,(I-P_{j-1})\til x)^{\frac{1}{2}}( \underbrace{R_{j}^{-1} R_{j}}_{=I}A_{j}\til x,R_{j}A_{j}\til x)^{\frac{1}{2}}\\
%
\stackrela{\text{Bedingung~\eqref{eq:scondition2}}}{\leq}
\sqrt{\alpha} a((I-P_{j-1})\til x,(I-P_{j-1})\til x)^{\frac{1}{2}} a(R_{j}A_{j}\til x,\til x)^{\frac{1}{2}}\\
%
\stackrela{\text{Def.~$K_{j}$}}{=}
\sqrt{\alpha} a((I-P_{j-1})\til x,\til x)^{\frac{1}{2}} a((I-K_{j})\til x,\til x)^{\frac{1}{2}}.
\end{align*}
\todo[inline]{Fehlt nach der CS-Ungleichung nicht ein $R_j^{-1}$?}
Daraus folgt
\begin{equation*}
A((I-P_{j-1})\til x,\til x) \leq \alpha A((I-K_{j})\til x,\til x) = \alpha A((I-K_{j})K_{j}^{2m}x,x).
a((I-P_{j-1})\til x,\til x)
\leq
\alpha a((I-K_{j})\til x,\til x)
=
\alpha a((I-K_{j})K_{j}^{2m}x,x).
\end{equation*}
$K_{j}$ ist die Iterationsmatrix für den positiv definiten Glätter $R_{j}$.
Nach Annahme \eqref{scondition1} ist $K_{j}$ positiv semidefinit.
Nach Annahme~\eqref{eq:scondition1} ist $K_{j}$ positiv semidefinit.
Weiterhin gilt für alle $x\in X_{j}$
\begin{equation*}
A(K_{j}x,x) = A(x,x)-A(R_{j}A_{j}x,x) = A(x,x)- \underbrace{(R_{j}A_{j}x,A_{j}x)}_{\geq 0} \leq A(x,x).
a(K_{j}x,x)
=
a(x,x) - a(R_{j}A_{j}x,x)
=
a(x,x)- \underbrace{(R_{j}A_{j}x,A_{j}x)}_{\geq 0}
\leq
a(x,x).
\end{equation*}
Daraus folgt, dass das Spektrum von $K_{j}$ eine Teilmenge von $[0,1]$ ist.
Es liegen also alle Eigenwerte von $K_j$ zwischen $0$ und $1$ (einschließlich).
\medskip
Für $z\in [0,1]$ gilt $z^{2m} \leq z^i$ mit $i\leq 2m$.
Damit ergibt sich die Ungleichung
\todo[inline]{Nachrechnen!}
\begin{equation*}
(1-z)z^{2m} \leq \frac{1}{2m}(1-z) \sum\limits_{i=0}^{2m-1} z^i = \frac{1}{2m}(1-z^{2m}).
(1-z)z^{2m} \leq \frac{1}{2m}(1-z) \sum_{i=0}^{2m-1} z^i = \frac{1}{2m}(1-z^{2m}).
\end{equation*}
Mit der Zerlegung von $x$ in die Eigenvektoren von $K_{j}$ und der obigen Abschätzung folgt
\begin{align*}
A((I-K_{j})K_{j}^{2m}x,x) &\leq \frac{1}{2m}A((I-K_{j}^{2m})x,x) \\
&= \frac{1}{2m}(A(x,x) - A(K_{j}^m x,K_{j}^m x) ).
a((I-K_{j})K_{j}^{2m}x,x)
&\leq
\frac{1}{2m}a((I-K_{j}^{2m})x,x) \\
&=
\frac{1}{2m}(a(x,x) - a(K_{j}^m x,K_{j}^m x) ).
\end{align*}
Zusammenfassend erhalten wir
\begin{align*}
A((I-\Theta_{j}A_{j})x,x) &\leq (1-\delta)A((I-P_{j-1})K_{j}^m x,K_{j}^m x) + \delta A(K_{j}^m x,K_{j}^m x)\\
&\leq (1-\delta)\alpha A((I-K_{j})K_{j}^{2m} x,x) + \delta A( K_{j}^mx,K_{j}^mx)\\
&\leq \frac{\alpha}{2m}(1-\delta) ( A(x,x) - A(K_{j}^mx,K_{j}^mx) ) + \delta A(K_{j}^mx,K_{j}^mx)\\
&\leq \frac{\alpha}{2m}(1-\delta)A(x,x)+ ( \delta - \frac{\alpha}{2m}(1-\delta))A(K_{j}^mx,K_{j}^mx).
a((I-\Theta_{j}A_{j})x,x) &\leq (1-\delta) a((I-P_{j-1})K_{j}^m x,K_{j}^m x) + \delta a(K_{j}^m x,K_{j}^m x)\\
&\leq (1-\delta)\alpha a((I-K_{j})K_{j}^{2m} x,x) + \delta a( K_{j}^mx,K_{j}^mx)\\
&\leq \frac{\alpha}{2m}(1-\delta) ( a(x,x) - a(K_{j}^mx,K_{j}^mx) ) + \delta a(K_{j}^mx,K_{j}^mx)\\
&\leq \frac{\alpha}{2m}(1-\delta) a(x,x)+ ( \delta - \frac{\alpha}{2m}(1-\delta))a(K_{j}^mx,K_{j}^mx).
\end{align*}
Für $\delta = \frac{\alpha}{\alpha +2m}$ gilt
\begin{equation*}
......@@ -4397,72 +4507,92 @@ so konstruieren können dass $\alpha$ nicht von der Problemgröße abhängt.
\subsection{Die additive und die symmetrische, multiplikative Methode von Schwarz}
Die gemeinsame Idee der Verfahren ist es, den Lösungsraum in Unterräume aufzuteilen und auf jeweils diesen Unterräumen eine Lösung zu finden.
Diese lokalen Lösungen werden dann zu einer Lösung auf dem gesamten Raum zusammengesetzt.
Der Unterschied zwischen den Verfahren ergibt sich daraus, wie die Lösung auf dem Gesamtraum gebildet wird.
\\
In diesem Abschnitt zeigen wir, dass die additive und die symmetrische, multiplikative Methode von Schwarz, Glätter sind, die die Bedingungen aus Theorem \eqref{absMGconvergence} erfüllen.
\subsection{Glätter: Die additive und die symmetrische, multiplikative Methode von Schwarz}
Dafür benötigen wir eine Zerlegung der endlich dimensionalen Unterräume $X_{j}$ in Unterräume $X_{j}^k$ für $k=1,\dots, K$, sodass
Im vorigen Abschnitt haben wir bewiesen dass das Mehrgitterverfahren konvergiert,
wenn der Glätter bestimmte Eigenschaften hat.
\medskip
In diesem Abschnitt zeigen wir, dass die additive und die symmetrische, multiplikative Methode
von Schwarz die Bedingungen aus Satz~\ref{thm:absMGconvergence} erfüllen.
\medskip
Dafür zerlegen wir die endlichdimensionalen Unterräume $X_j$ wieder in Unterräume $X_{j}^i$
für $i=1,\dots, n_j$, so dass
\begin{equation*}
X_{j} = \sum\limits_{k=1}^{K} X_{j}^k
X_j = \sum_{i=1}^{n_j} X_j^i
\end{equation*}
gilt.
Dann kann ein beliebiges $x\in X_{j}$ durch
\begin{equation*}
x = \sum\limits_{k=1}^{K} x_{k}
x = \sum_{i=1}^{n_j} x_i
\end{equation*}
mit $x_{k}\in X_{j}^k$, beschrieben werden.
Diese Zerlegung hängt von den Räumen $X_{j}^k$ ab und ist im Allgemeinen nicht eindeutig.
Wir nutzen die Operatoren $A_{j},P_{j},Q_{j}$ für die Teilräume $X_{j}^k$ und bezeichnen sie mit $A_{j,k},P_{j}^k$ und $Q_{j}^k$.
mit $x_i\in X_{j}^i$, beschrieben werden.
Diese Zerlegung hängt von den Räumen $X_{j}^i$ ab und ist im Allgemeinen nicht eindeutig.
Wir definieren die additive Methode von Schwarz $R_{j}^{a}\colon X_{j} \to X_{j}$ durch $R_{j}^a \colonequals\eta R_{j}$ mit
\begin{equation}\label{defsschwarz}
R_{j} = \sum\limits_{k=1}^{K} A_{j,k}^{-1} Q_{j}^k
\end{equation}
und einer Skalierungskonstante $\eta$.
Sie iteriert über die Unterräume $X_{j}^k$ und addiert alle lokalen Lösungen auf. Diese Summe ist die Lösung auf dem Gesamtraum und wird mit dem Faktor $\eta$ skaliert.
Im Hinterkopf haben wir dabei wieder Zerlegungen gemäß der Knotenbasis, aber es kommen
später auch noch andere.
Die symmetrische, multiplikative Methode von Schwarz $R_{j}^m \colon X_{j}\to X_{j}$ definieren wir für $f \in X_{j}$ durch den Algorithmus
\medskip
\begin{algorithm}[H]
\DontPrintSemicolon
\caption{Die symmetrische multiplikative Methode von Schwarz}
\textbf{Input:}$f$\\
$y_{0}\gets 0$\\
\For {$k=1,\dots ,K$}{
$y_{k} \gets y_{k-1} + P_{j}^k(A_{j}^{-1}f-y_{k-1})$ \tcp*{vorwärts}
}
\For {$k=K,\dots ,1$}{
$y_{k-1} \gets y_{k} + P_{j}^k(A_{j}^{-1}f-y_{k})$ \tcp*{rückwärts}
}
\Return $y_{0}$
\label{symMulSchwarz}
\end{algorithm}
Die Methode iteriert über alle Unterräume. Im Gegensatz zur additiven Methode von Schwarz wird hier die Iterierte nach jedem Unterraum aktualisiert.
Dieser Vorgang wird mit umgekehrter Reihenfolge der Unterräume wiederholt, um Symmetrie zu erhalten. \\
Wir nutzen die Operatoren $A_{j},P_{j},Q_{j}$ für die Teilräume $X_j^i$
und bezeichnen sie mit $A_{j,i},P_{j}^i$ und $Q_{j}^i$.
Die folgenden zwei Bedingungen an die Zerlegung der Räume sind entscheidend, damit die additive und die symmetrische, multiplikative Methode von Schwarz die beiden Bedingungen aus Theorem \eqref{absMGconvergence} erfüllen.
\begin{itemize}
\item Es existiert $\beta >0$, so dass für beliebige $x,y\in X_{j}$ mit $x=\sum_{k=1}^Kx^k$ und $y=\sum_{l=1}^Ky^l$
\begin{equation}\label{ssmcondition1}
\sum\limits_{k=1}^{K} \sum\limits_{l=1}^{K} A(x^k,y^l) \leq \beta [ \sum\limits_{k}^{K} A(x^k,x^k)]^{\frac{1}{2}} [ \sum\limits_{k}^{K} A(y^k,y^k)]^\frac{1}{2}
\end{equation}
gilt.
\item Es existiert $\gamma>0$, sodass
\begin{equation}\label{ssmcondition2}
\inf_{\substack{x= \sum_{k=1}^{K} x^k\\x^k\in X_{j}^k }} \sum\limits_{k=1}^{K} A(x^k,x^k) \leq \gamma A(x,x) \quad \forall x \in (I-P_{j-1})X_{j}.
\end{equation}
Hier wird das Infimum über alle Zerlegungen von $x\in X_{j}$ in Funktionen $x^k\in X_{j}^k$ gebildet.
\end{itemize}
Bedingung \eqref{ssmcondition1} ist ein Spezialfall der Cauchy-Schwarz Ungleichung.
Die Güte der Zerlegungen $\{X_j^i\}$ macht sich wieder an zwei Konstanten fest.
Dies sind fast die Konstanten $C_0$ und $\rho(\mathcal{E})$ aus den
Definitionen~\ref{def:TRK_annahme_1} bzw.~\ref{def:TRK_annahme_2}, aber es gibt