Commit bdd6e92d authored by Sander, Oliver's avatar Sander, Oliver
Browse files

Verbessere ein paar Ungereimtheiten

parent 2aeee1cb
Pipeline #6369 passed with stage
in 1 minute and 5 seconds
......@@ -4106,27 +4106,27 @@ folgendes versucht:
\begin{itemize}
\item Benutze sehr viele eindimensionale Teilräume
\begin{equation*}
X_i^j = \operatorname{spann} \{\varphi_i^j\},
X_j^i = \operatorname{spann} \{\varphi_j^i\},
\end{equation*}
einen für jede Knotenbasisfunktion $\varphi_i^j$, $j=1,\dots,n_i$ auf jeder
Ebene $i=0,\dots, J$.
einen für jede Knotenbasisfunktion $\varphi_j^i$, $i=1,\dots,n_j$ auf jeder
Ebene $j=1,\dots, J$.
\item Berechne die Projektionen auf die $X_i^j$ \emph{exakt}.
\item Berechne die Projektionen auf die $X_j^i$ \emph{exakt}.
\end{itemize}
Stattdessen wählen wir jetzt folgenden alternativen Ansatz:
\begin{itemize}
\item Betrachte nur die größeren Räume $X_i$.
\item Betrachte nur die größeren Räume $X_j$.
\item Interpretiere den Glätter auf Ebene $i$ als \emph{inexakte Projektion} auf $X_i$.
\item Interpretiere den Glätter auf Ebene $j$ als \emph{inexakte Projektion} auf $X_j$.
\end{itemize}
Dafür müssen wir die Teilraumkorrekturtheorie etwas erweitern:
Sie muss inexakte Projektionen erlauben.
\subsection{Der Konvergenzbeweis}
\subsection{Mehrgitter als inexaktes Teilraumkorrekturverfahren}
Sei also $X$ wieder ein endlichdimensionaler Hilbert-Raum mit Skalarprodukten
Sei $X$ wieder ein endlichdimensionaler Hilbert-Raum mit Skalarprodukten
$a(\cdot,\cdot)$ und $(\cdot,\cdot)$.
\medskip
......@@ -4138,11 +4138,11 @@ Teilräumen.
Für jedes $j=1,\dots, J$ definieren wir den Operator $A_j : X_j\to X_j$ durch
\begin{equation*}
a(x,y) = (A_{j}x,y) \quad \forall x,y\in X_{j}.
(A_j x,y) = a(x,y) \qquad \forall x,y\in X_{j}.
\end{equation*}
Der Operator $A_j$ ist für alle $j\in \set{1,\dots ,J }$ positiv definit und selbstadjungiert bzgl.\ $(\cdot,\cdot)$.
\bigskip
\medskip
Die $a(\cdot,\cdot)$-Projektion $P_{j} : X \to X_{j}$ ist wieder durch
\begin{equation*}
......@@ -4157,7 +4157,7 @@ Zusätzlich benötigen wir jetzt auch die $(\cdot,\cdot)$-orthogonale Projektion
$Q_j : X \to X_{j}$ für $j=1,\dots ,J$:
Für alle $x\in X$ ist $Q_{j}x\in X_{j}$ das Element für das
\begin{equation*}
(Q_jx,y) = (x,y) \quad \forall y\in X_{j}
(Q_jx,y) = (x,y) \qquad \forall y\in X_{j}
\end{equation*}
gilt. Damit wird das Residuum auf die groben Gitter eingeschränkt.
......@@ -4176,7 +4176,8 @@ Da die $X_i$ geschachtelt sind haben die Projektionsoperatoren einige besondere
\end{equation}
\end{lemma}
Anschaulich besagt das Lemma, dass es irrelevant ist, von welchem Raum aus auf den Raum $X_{j}$ projiziert wird.
Anschaulich besagt das Lemma, dass eine Projektion auf einen kleinen Raum alle Projektionen
überdeckt, die eventuell vorher ausgeführt wurden.
\begin{proof}
Seien $x,y\in X$.
......@@ -4192,7 +4193,9 @@ Anschaulich besagt das Lemma, dass es irrelevant ist, von welchem Raum aus auf d
\begin{equation*}
a((P_{j}P_{l}-P_{j})x,y) =0 \quad \forall y\in X.
\end{equation*}
Mit $y= (P_{j}P_{l}-P_{j})x$ folgt Gleichung~\eqref{MGpjpleqpj}.
Diese Gleichung muss insbesondere für $y= (P_{j}P_{l}-P_{j})x$ gelten; deshalb folgt~\eqref{MGpjpleqpj}.
\medskip
Gleichung~\eqref{MGplpjeqpj} erhalten wir mit
\begin{equation*}
......@@ -4210,21 +4213,29 @@ Die Projektionen $Q_j$ und $P_j$ stehen miteinander in Verbindung:
\end{lemma}
\begin{proof}
Sei $x \in X_{l}$.
Dann gilt für alle $y\in X_{j}$ mit $j \leq l$
Dann gilt mit $j \leq l$
\begin{equation*}
(Q_{j}A_{l}x,y)=(A_{l}x,y) = a(x,y) = a(P_{j}x,y)=(A_{j}P_{j}x,y).
\end{equation*}
Es folgt
\begin{equation*}
((Q_{j}A_{l}-A_{j}P_{j})x,y)=0 \quad\forall y\in X_{j}.
(Q_{j}A_{l}x,y)=(A_{l}x,y) = a(x,y) = a(P_{j}x,y)=(A_{j}P_{j}x,y)
\qquad
\forall y \in X_j.
\qedhere
\end{equation*}
Mit $y= (Q_{j}A_{l}-A_{j}P_{j})x$ folgt die Behauptung.
\end{proof}
\bigskip
Zur Erinnerung und zum Festlegen der Notation wiederholen wir hier
das Mehrgitterverfahren. Wir definieren das Mehrgitterfahren als
einen linearen Operator $\Theta_J : X \to X$, der zu einem linearen Verfahren
\begin{equation*}
x^{k+1} = x^k + \Theta_J (f - Ax^k)
\end{equation*}
gehört.
Wir definieren den abstrakten Mehrgitter-Operator $\Theta_{J}$ rekursiv:
\begin{itemize}
\item Sei $\Theta_1 \colonequals A_{1}^{-1}$.
\item $\Theta_1 \colonequals A_{1}^{-1}$.
\item Für $j=1,\dots ,J$ sei $\Theta_j$ definiert über
\begin{algorithm}[H]\label{MGVerfahrenAlg}
......@@ -4244,18 +4255,17 @@ Wir definieren den abstrakten Mehrgitter-Operator $\Theta_{J}$ rekursiv:
Dabei sei $R_{j}\colon X_{j} \to X_{j}$ ein bzgl.\ $(\cdot,\cdot)$ selbstadjungierter,
positiv definiter Vorkonditionierer für ein lineares Verfahren.
Dieses Verfahren wird der \emph{Glätter} des Mehrgitter-Verfahrens.
Wir denken hauptsächlich wieder an das Jacobi-Verfahren ($R_j = \eta D_j^{-1}$)
oder an das Gauß--Seidel-Verfahren ($R_j = (D_j + L_j)^{-1}$).
Dieses Verfahren ist der \emph{Glätter} des Mehrgitter-Verfahrens.
Das Gauß--Seidel-Verfahren $R_j = (D_j + L_j)^{-1}$ geht aber nicht, weil es
nicht symmetrisch ist.
\medskip
Stattdessen nimmt man
Wir denken dabei wieder an das Jacobi-Verfahren ($R_j = \eta D_j^{-1}$).
Das Gauß--Seidel-Verfahren $R_j = (D_j + L_j)^{-1}$ geht nicht, weil es
nicht symmetrisch ist. Stattdessen nimmt man
\begin{itemize}
\item Das symmetrische Gauß--Seidel-Verfahren
\item Für die Nachglättung das Rückwarts-Gauß--Seidel-Verfahren.
\item das symmetrische Gauß--Seidel-Verfahren
\item das Gauß--Seidel-Verfahren für den Vorglätter und das
Rückwarts-Gauß--Seidel-Verfahren für den Nachglätter.
\end{itemize}
......@@ -4268,9 +4278,9 @@ wenn die Glätter bestimmte Eigenschaften erfüllen.
\begin{theorem}\label{thm:absMGconvergence}
Sei für jedes $j=1,\dots ,J$ der Glätter $R_{j}$ symmetrisch bzgl.\ $(\cdot,\cdot)$,
positiv definit, invertierbar und so, dass er die Bedingungen
positiv definit und so, dass er die Bedingungen
\begin{equation}\label{eq:scondition1}
a([I-R_{j}A_{j}]x,x) \geq 0,\quad \forall x \in X_{j}
a((I-R_{j}A_{j})x,x) \geq 0,\quad \forall x \in X_{j}
\end{equation}
und
\begin{equation}\label{eq:scondition2}
......@@ -4280,16 +4290,19 @@ für eine Konstante $\alpha$ erfüllt.
Dann gilt
\begin{alignat}{2}
\label{eq:abstract_mg_convergence_lower_bound}
0 \leq & a([I-\Theta_{J}A_{J}]x,x) & \qquad & \forall x \in X \\
0 \leq \; & a((I-\Theta_{J}A_{J})x,x) & \qquad & \forall x \in X \\
\label{eq:abstract_mg_convergence_upper_bound}
& a([I-\Theta_{J}A_{J}]x,x) \leq \delta a(x,x), & & \forall x \in X
& a((I-\Theta_{J}A_{J})x,x) \leq \delta a(x,x), & & \forall x \in X
\end{alignat}
mit $\delta = \frac{\alpha}{\alpha + 2m}$.
\end{theorem}
Aus diesen zwei Ungleichungen folgt die Konvergenz des Mehrgitterverfahrens:
\begin{itemize}
\item Wegen~\eqref{eq:abstract_mg_convergence_lower_bound} ist
\item Die Iterationsmatrix $I - \Theta_J A$ des Mehrgitteroperators ist
selbstadjungiert bzgl.\ $a(\cdot,\cdot)$.
\todo[inline]{Beweis?}
\item Wegen~\eqref{eq:abstract_mg_convergence_lower_bound} ist deshalb
\begin{equation*}
\lambda_\text{min}(I - \Theta_JA_J)
=
......@@ -4297,7 +4310,6 @@ Aus diesen zwei Ungleichungen folgt die Konvergenz des Mehrgitterverfahrens:
\ge
0.
\end{equation*}
\todo[inline]{Dafür muss $I - \Theta_J A_J$ selbstadjungiert sein!}
\item Also ist $\rho(I - \Theta_J A_J) = \lambda_\text{max}(I-\Theta_J A_J)$.
\end{itemize}
......@@ -4307,7 +4319,7 @@ Aus~\eqref{eq:abstract_mg_convergence_upper_bound} folgt dass
\lambda_\text{max} ( I - \Theta_J A_J)
=
\sup_{\norm{x} \neq 0} \frac{a([I-\Theta_{J}A_{J}]x,x)}{a(x,x)}
=
\le
\delta.
\end{equation*}
Damit ist das iterative Verfahren
......@@ -4328,16 +4340,12 @@ Das machen wir in Kapitel~\ref{}.
\begin{proof}[Beweis von Satz~\ref{thm:absMGconvergence}:
Die untere Schranke~\eqref{eq:abstract_mg_convergence_lower_bound}]
Der Beweis wurde \cite{bramble1993multigrid} entnommen.
Aus der Definition des Mehrgitterverfahrens
folgt für $j=2,\dots ,J$ die Rekursionsvorschrift
\todo[inline]{Nachrechnen!}
\begin{equation}\label{defRec}
I-\Theta_{j}A_{j} = K_{j}^m[ (I-P_{j-1}) + (I - \Theta_{j-1}A_{j-1})P_{j-1} ]K_{j}^m
\end{equation}
mit $K_{j} : X_{j} \to X_{j}$, $K_{j}\colonequals I-R_{j}A_{j}$.
\medskip
Sei $K_{j} : X_{j} \to X_{j}$, $K_{j}\colonequals I-R_{j}A_{j}$ die Iterationsmatrix
des Glätters.
Da $R_{j}$ symmetrisch bezüglich des Skalarprodukts $(\cdot,\cdot)$ ist, folgt
\begin{equation}\label{KAsym}
a(K_{j}x,y)
......@@ -4351,9 +4359,9 @@ Die untere Schranke~\eqref{eq:abstract_mg_convergence_lower_bound}]
\end{equation}
d.h.\ $K_{j}$ ist symmetrisch bzgl.\ $a(\cdot,\cdot)$.
\bigskip
\medskip
Nun zeigen wir via vollständiger Induktion über $j$, dass
Wir zeigen mittels vollständiger Induktion über $j$ dass
\begin{equation}\label{indulowerBound}
a((I-\Theta_{j}A_{j})x,x) \geq 0\quad \forall x\in X_{j}.
\end{equation}
......@@ -4362,14 +4370,30 @@ Die untere Schranke~\eqref{eq:abstract_mg_convergence_lower_bound}]
\begin{equation*}
a((I- \underbrace{ \Theta_{1}A_{1}}_{=I})x,x) = 0 \quad \forall x\in X_{1}.
\end{equation*}
Für den Induktionsschritt von $j-1$ zu $j$ benötigen wir die Gleichung
Für den Induktionsschritt von $j-1$ zu $j$
stellen wir das Mehrgitterverfahren für $j=2,\dots, J$ als
\begin{align}
\nonumber
I-\Theta_{j}A_{j}
& =
K_{j}^m[ I - \Theta_{j-1}Q_{j-1} A_j ]K_j^m \\
\label{eq:defRec}
& =
K_{j}^m[ (I-P_{j-1}) + (I - \Theta_{j-1}A_{j-1})P_{j-1} ]K_{j}^m
\end{align}
dar.
\medskip
Außerdem benötigen wir die Gleichung
\begin{equation}\label{idminuspsqrteqidminusp}
(I-P_{j})^2 = I - 2P_{j} + \underbrace{P_{j}P_{j}}_{=P_{j}} = I-P_{j}.
\end{equation}
Dann gilt für ein beliebiges $x\in X_{j}$
\begin{align*}
a((I-\Theta_{j}A_{j})x,x)
\stackrela{\eqref{defRec}}{=}
\stackrela{\eqref{eq:defRec}}{=}
a(K_{j}^m(I-P_{j-1})K_{j}^mx,x) \\
%
&\quad + a(K_{j}^m(I - \Theta_{j-1}A_{j-1})P_{j-1} K_{j}^mx,x)\\
......@@ -4397,12 +4421,14 @@ Die obere Schranke~\eqref{eq:abstract_mg_convergence_upper_bound}]
Wir zeigen die Abschätzung
\begin{equation*}
a([I-\Theta_{J}A_{J}]x,x) \leq \delta a(x,x) \quad \forall x \in X
a([I-\Theta_{J}A_{J}]x,x) \leq \frac{\alpha}{\alpha+2m} a(x,x)
\qquad \forall x \in X
\end{equation*}
durch vollständige Induktion über $j$.
Definiere $\delta \colonequals \frac{\alpha}{\alpha+2m}$ unabhängig von $j$.
Sei
\medskip
Definiere $\delta \colonequals \frac{\alpha}{\alpha+2m}$, und sei
\begin{equation}\label{inducUpperBound}
a([I-\Theta_{j-1}A_{j-1}]x,x) \leq \delta a(x,x) \quad \forall x \in X_{j-1}
\end{equation}
......@@ -4412,12 +4438,12 @@ Die obere Schranke~\eqref{eq:abstract_mg_convergence_upper_bound}]
\begin{equation*}
a((I- \underbrace{\Theta_{1}A_{1}}_{=I})x,x) = 0 \quad \forall x\in X_{1}.
\end{equation*}
Wir nehmen an, dass \eqref{inducUpperBound} für $j-1$ gilt.
Wir nehmen nun an, dass \eqref{inducUpperBound} gilt.
Definiere für eine kompakte Notation $\til x \colonequals K_{j}^m x$.
Dann gilt
\begin{align*}
a((I-\Theta_{j}A_{j})x,x)
\stackrela{\eqref{defRec}}{=}
\stackrela{\eqref{eq:defRec}}{=}
a((I-P_{j-1})\til x,\til x) + a((I - \Theta_{j-1}A_{j-1})P_{j-1} \til x,P_{j-1} \til x)\\
%
\stackrela{\eqref{inducUpperBound}}{\leq}
......@@ -4445,6 +4471,8 @@ Die obere Schranke~\eqref{eq:abstract_mg_convergence_upper_bound}]
%
\stackrela{\text{Cauchy-Schwarz}}{\leq}
(R_{j}^{-1} (I-P_{j-1})\til x,(I-P_{j-1})\til x)^{\frac{1}{2}}( \underbrace{R_{j}^{-1} R_{j}}_{=I}A_{j}\til x,R_{j}A_{j}\til x)^{\frac{1}{2}}\\
\intertext{(hier fehlt kein $R_j^{-1}$, denn die Bilinearform ist ja $(R_j^{-1}\cdot,\cdot)$
und nicht $(\cdot,\cdot)$,)}
%
\stackrela{\text{Bedingung~\eqref{eq:scondition2}}}{\leq}
\sqrt{\alpha} a((I-P_{j-1})\til x,(I-P_{j-1})\til x)^{\frac{1}{2}} a(R_{j}A_{j}\til x,\til x)^{\frac{1}{2}}\\
......@@ -4452,7 +4480,6 @@ Die obere Schranke~\eqref{eq:abstract_mg_convergence_upper_bound}]
\stackrela{\text{Def.~$K_{j}$}}{=}
\sqrt{\alpha} a((I-P_{j-1})\til x,\til x)^{\frac{1}{2}} a((I-K_{j})\til x,\til x)^{\frac{1}{2}}.
\end{align*}
\todo[inline]{Fehlt nach der CS-Ungleichung nicht ein $R_j^{-1}$?}
Daraus folgt
\begin{equation*}
a((I-P_{j-1})\til x,\til x)
......@@ -4477,9 +4504,9 @@ Die obere Schranke~\eqref{eq:abstract_mg_convergence_upper_bound}]
\medskip
Für $z\in [0,1]$ gilt $z^{2m} \leq z^i$ mit $i\leq 2m$.
Für $z\in [0,1]$ gilt $z^{2m} \leq z^i$ für alle $i\leq 2m$, und somit auch
$z^{2m} \le \frac{1}{2m} \sum_{i=0}^{2m-1} z^i$.
Damit ergibt sich die Ungleichung
\todo[inline]{Nachrechnen!}
\begin{equation*}
(1-z)z^{2m} \leq \frac{1}{2m}(1-z) \sum_{i=0}^{2m-1} z^i = \frac{1}{2m}(1-z^{2m}).
\end{equation*}
......@@ -4495,7 +4522,7 @@ Die obere Schranke~\eqref{eq:abstract_mg_convergence_upper_bound}]
\begin{align*}
a((I-\Theta_{j}A_{j})x,x) &\leq (1-\delta) a((I-P_{j-1})K_{j}^m x,K_{j}^m x) + \delta a(K_{j}^m x,K_{j}^m x)\\
&\leq (1-\delta)\alpha a((I-K_{j})K_{j}^{2m} x,x) + \delta a( K_{j}^mx,K_{j}^mx)\\
&\leq \frac{\alpha}{2m}(1-\delta) ( a(x,x) - a(K_{j}^mx,K_{j}^mx) ) + \delta a(K_{j}^mx,K_{j}^mx)\\
&\leq \frac{\alpha}{2m}(1-\delta) \Big[ a(x,x) - a(K_{j}^mx,K_{j}^mx) \Big] + \delta a(K_{j}^mx,K_{j}^mx)\\
&\leq \frac{\alpha}{2m}(1-\delta) a(x,x)+ ( \delta - \frac{\alpha}{2m}(1-\delta))a(K_{j}^mx,K_{j}^mx).
\end{align*}
Für $\delta = \frac{\alpha}{\alpha +2m}$ gilt
......
Supports Markdown
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment