Commit d72e786b authored by Sander, Oliver's avatar Sander, Oliver
Browse files

Kurze Wiederholung der Mehrgitter-Theorie

parent 5b68e26a
Pipeline #6608 passed with stage
in 56 seconds
......@@ -8212,6 +8212,204 @@ Man erhält:
\chapter{Mehrgitter für Probleme in \texorpdfstring{$H(\div)$}{H(div)} und \texorpdfstring{$H(\curl)$}{H(curl)}}
\section{Wiederholung: Konvergenztheorie des Mehrgitterverfahrens}
Wir wiederholen kurz die wesentlichen Teile von Kapitel~\ref{chaMGconvergence}.
\medskip
Sei $X$ ein endlichdimensionaler Hilbert-Raum mit Skalarprodukten
$a(\cdot,\cdot)$ und $(\cdot,\cdot)$.
\smallskip
Die Problemstellung ist: Gegeben ein $f \in X$, finde ein $x \in X$ so dass
\begin{equation*}
a(x,y) = (f,y)
\end{equation*}
für alle $y \in X$.
\subsection{Mehrgitter als inexaktes Teilraumkorrekturverfahren}
Sei $X_{1} \subset X_{2} \subset \dots \subset X_{J} = X $ eine Folge von geschachtelten
Teilräumen.
\bigskip
Die $a(\cdot,\cdot)$-Projektion $P_{j} : X \to X_{j}$ und die
$(\cdot,\cdot)$-Projektion $Q_{j} : X \to X_{j}$ sind durch
\begin{equation*}
a(P_{j}x,y) = a(x,y)
\qquad \forall y \in X_{j}
\end{equation*}
bzw.
\begin{equation*}
(Q_{j}x,y) = (x,y)
\qquad \forall y \in X_j
\end{equation*}
definiert.
\bigskip
Für jedes $j=1,\dots, J$ definieren wir den Operator $A_j : X_j\to X_j$ durch
\begin{equation*}
(A_j x,y) = a(x,y) \qquad \forall x,y\in X_{j}.
\end{equation*}
Der Operator $A_j$ ist für alle $j\in \set{1,\dots ,J }$ positiv definit und selbstadjungiert bzgl.\ $(\cdot,\cdot)$.
\medskip
Wir definieren das Mehrgitterfahren als
einen linearen Operator $\Theta_J : X \to X$, der zu einem linearen Verfahren
\begin{equation*}
x^{k+1} = x^k + \Theta_J (f - Ax^k)
\end{equation*}
gehört.
Die Definition des abstrakten Mehrgitter-Operators $\Theta_{J}$ erfolgt rekursiv:
\begin{itemize}
\item $\Theta_1 \colonequals A_{1}^{-1}$.
\item Für $j=1,\dots ,J$ sei $\Theta_j$ definiert über
\begin{algorithm}[H]\label{MGVerfahrenAlg}
\DontPrintSemicolon
$x_{0} \gets 0 \in X_{j}$\\
\For {$i=1,\dots ,m$}{
$x_{i} \gets x_{i-1} + R_{j}(f-A_{j}x_{i-1})$\tcp*{Vorglättung}
}
$y_{0}\gets x_{m} + \Theta_{j-1}Q_{j-1}(f-A_{j}x_{m})$\tcp*{Grobgitterkorrektur}
\For {$i=1,\dots ,m$}{
$y_{i}\gets y_{i-1} + R_{j}(f-A_{j}y_{i-1})$\tcp*{Nachglättung}
}
\Return $y_{m}$
\end{algorithm}
\end{itemize}
Dabei sei $R_{j}\colon X_{j} \to X_{j}$ ein bzgl.\ $(\cdot,\cdot)$ selbstadjungierter,
positiv definiter Vorkonditionierer für ein lineares Verfahren.
Dieses Verfahren ist der \emph{Glätter} des Mehrgitter-Verfahrens.
\medskip
Wir denken dabei z.B.\ an das Jacobi-Verfahren ($R_j = \eta D_j^{-1}$),
oder an das symmetrische Gauß--Seidel-Verfahren.
\bigskip
Konvergenz des Mehrgitterverfahrens folgt,
wenn der Glätter bestimmte Eigenschaften erfüllt.
\begin{theorem}\label{thm:absMGconvergence}
Sei für jedes $j=1,\dots ,J$ der Glätter $R_{j}$ symmetrisch bzgl.\ $(\cdot,\cdot)$,
positiv definit und so, dass er die Bedingungen
\begin{equation*}
a((I-R_{j}A_{j})x,x) \geq 0,\quad \forall x \in X_{j}
\end{equation*}
und
\begin{equation*}
(R^{-1}_{j}x,x) \leq \alpha a(x,x), \quad \forall x \in (I-P_{j-1})X_{j}
\end{equation*}
für eine Konstante $\alpha$ erfüllt.
Dann gilt
\begin{alignat}{2}
\label{eq:abstract_mg_convergence_lower_bound_revisited}
0 \leq \; & a((I-\Theta_{J}A_{J})x,x) & \qquad & \forall x \in X \\
\label{eq:abstract_mg_convergence_upper_bound_revisited}
& a((I-\Theta_{J}A_{J})x,x) \leq \delta a(x,x), & & \forall x \in X
\end{alignat}
mit $\delta \colonequals \frac{\alpha}{\alpha + 2m}$.
\end{theorem}
Aus den zwei Ungleichungen~\eqref{eq:abstract_mg_convergence_lower_bound_revisited}
und~\eqref{eq:abstract_mg_convergence_upper_bound_revisited}
folgt die Konvergenz des Mehrgitterverfahrens:
\begin{equation*}
\rho(I - \Theta_JA_J)
\le
\delta
\colonequals
\frac{\alpha}{\alpha + 2m}
< 1.
\end{equation*}
Das Verfahren konvergiert \emph{gitterunabhängig}, wenn wir einen Glätter $R_j$
so konstruieren können dass $\alpha$ nicht von der Problemgröße abhängt.
\subsection{Glätter: Die additive und die symmetrische, multiplikative Methode von Schwarz}
Die additive und die symmetrische, multiplikative Methode
von Schwarz erfüllen die Bedingungen aus Satz~\ref{thm:absMGconvergence}.
\smallskip
Ob $\alpha$ tatsächlich $h$-unabhängig ist hängt von der weiteren
Zerlegung der Räume $X_j$ ab.
\medskip
Wir zerlegen nämlich die endlichdimensionalen Unterräume $X_j$ wieder in Unterräume $X_{j}^i$
für $i=1,\dots, n_j$, so dass
\begin{equation*}
X_j = \sum_{i=1}^{n_j} X_j^i.
\end{equation*}
Dann kann ein beliebiges $x\in X_{j}$ durch
\begin{equation*}
x = \sum_{i=1}^{n_j} x_i
\end{equation*}
mit $x_i\in X_{j}^i$, beschrieben werden.
Diese Zerlegung hängt von den Räumen $X_{j}^i$ ab und ist im Allgemeinen nicht eindeutig.
Wir nutzen die Operatoren $A_{j},P_{j},Q_{j}$ für die Teilräume $X_j^i$
und bezeichnen sie mit $A_{j,i},P_{j}^i$ und $Q_{j}^i$.
Im Hinterkopf haben wir dabei wieder Zerlegungen gemäß der Knotenbasis,
aber für die $H(\curl)$- und $H(\div)$-Finite-Elemente-Räume lernen wir
gleich Neue kennen.
\bigskip
Die Güte der Zerlegungen $\{X_j^i\}$ macht sich an zwei Konstanten fest.
\begin{definition}
Es existiert $\gamma>0$, so dass
\begin{equation}\label{eq:ssmcondition1_revisited}
\inf_{\substack{x= \sum_{i=1}^{n_j} x^i\\x^i\in X_{j}^i }} \sum_{i=1}^{n_j} a(x^i,x^i)
\leq
\gamma a(x,x)
\quad \forall x \in (I-P_{j-1})X_{j}.
\end{equation}
\end{definition}
\begin{definition}
Es existiert $\beta >0$, so dass für beliebige $x,y\in X_j$ mit $x=\sum_{i=1}^{n_j} x^i$
und $y=\sum_{l=1}^{n_j} y^l$
\begin{equation}\label{eq:ssmcondition2_revisited}
\sum_{i=1}^{n_j} \sum_{l=1}^{n_j} a(x^i,y^l)
\leq
\beta \bigg[ \sum_{i=1}^{n_j} a(x^i,x^i)\bigg]^{\frac{1}{2}} \bigg[ \sum_{i=1}^{n_j} a(y^i,y^i)\bigg]^\frac{1}{2}
\end{equation}
gilt.
\end{definition}
Hierdurch wird verlangt dass
die Teilräume \glqq möglichst senkrecht\grqq{} zueinander stehen.
\begin{theorem}\label{konvergenceAdditiveSmoother}
Seien die Bedingungen \eqref{eq:ssmcondition1_revisited}
und \eqref{eq:ssmcondition2_revisited} erfüllt und sei die Skalierungskonstante $\eta <\frac{1}{\beta}$.
Dann erfüllt die additive Methode von Schwarz $\Radd_j = \eta R_{j}$ die Bedingungen von Satz~\ref{thm:absMGconvergence} mit $\alpha = \frac{\gamma}{\eta}$.
\end{theorem}
\begin{theorem}
Seien die Bedingungen \eqref{eq:ssmcondition1_revisited},
\eqref{eq:ssmcondition2_revisited} erfüllt.
Dann erfüllt die symmetrische, multiplikative Methode von Schwarz $R_{j}^\textup{mult}$ die Bedingungen
von Satz~\ref{thm:absMGconvergence} mit $\alpha = \beta^2\gamma$.
\end{theorem}
\section{Zerlegungen der Finiten-Elemente Räume für \textit{\textbf{H}}$(\curlv)$, \textit{\textbf{H}}$(\div)$ und \textit{\textbf{L}}$^2$ }\label{sectionDecompFESpaces}
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment