Commit 3f961c85 authored by Sander, Oliver's avatar Sander, Oliver
Browse files

Erster Entwurf eines Kapitels zu Teilraumkorrekturverfahren

parent 518566ae
...@@ -28,6 +28,14 @@ year = {2013} ...@@ -28,6 +28,14 @@ year = {2013}
author = {Wolfgang Dahmen and Arnold Reusken} author = {Wolfgang Dahmen and Arnold Reusken}
} }
@MastersThesis{stolzmann:2020,
author = {Henrik Stolzmann},
title = {Robuste Mehrgittermethoden in $H(\operatorname{div})$},
school = {TU Dresden, Fakultät für Mathematik},
year = {2020},
type = {Masterarbeit}
}
@Book{pissanetzky:1984, @Book{pissanetzky:1984,
title = {Sparse Matrix Technology}, title = {Sparse Matrix Technology},
publisher = {Academic Press}, publisher = {Academic Press},
...@@ -74,3 +82,16 @@ year = {2013} ...@@ -74,3 +82,16 @@ year = {2013}
volume = {52}, volume = {52},
pages = {427--458} pages = {427--458}
} }
@Book{smith_bjorstad_gropp:1996,
title = {Domain Decomposition -- Parallel Multilevel Methods for Elliptic Partial Differential Equations},
publisher = {Cambridge University Press},
year = {1996},
author = {Barry Smith and Petter Bj{\o}rstad and William Gropp}
}
@misc{bramble1993multigrid,
title={Multigrid methods, Pitman Research Notes in Mathematical Sciences, vol. 294},
author={Bramble, J. H.},
year={1993}
}
...@@ -11,6 +11,7 @@ ...@@ -11,6 +11,7 @@
\usepackage[utf8]{inputenc} \usepackage[utf8]{inputenc}
\usepackage{longtable,tabularx,tabulary,booktabs} \usepackage{longtable,tabularx,tabulary,booktabs}
\usepackage{aligned-overset}
\usepackage{array} \usepackage{array}
\usepackage[linesnumbered,inoutnumbered]{algorithm2e} \usepackage[linesnumbered,inoutnumbered]{algorithm2e}
\usepackage{caption} \usepackage{caption}
...@@ -19,6 +20,7 @@ ...@@ -19,6 +20,7 @@
\usepackage{graphicx} \usepackage{graphicx}
\usepackage{tikz} \usepackage{tikz}
\usepackage{pgfplots} \usepackage{pgfplots}
\pgfplotsset{compat=1.17}
\usepackage{amsfonts} \usepackage{amsfonts}
\usepackage{lmodern} \usepackage{lmodern}
...@@ -27,6 +29,7 @@ ...@@ -27,6 +29,7 @@
\usepackage{amsmath} \usepackage{amsmath}
\usepackage{amssymb} \usepackage{amssymb}
\usepackage{amsthm} \usepackage{amsthm}
\usepackage{bm}
\usepackage{mathtools} \usepackage{mathtools}
\usepackage{colonequals} \usepackage{colonequals}
\usepackage{enumitem} \usepackage{enumitem}
...@@ -49,7 +52,6 @@ ...@@ -49,7 +52,6 @@
\newcommand{\R}{\mathbb R} \newcommand{\R}{\mathbb R}
\newcommand{\N}{\mathbb N} \newcommand{\N}{\mathbb N}
\newcommand{\T}{\mathcal T}
\newcommand{\curl}{\operatorname{curl}} \newcommand{\curl}{\operatorname{curl}}
\renewcommand{\div}{\operatorname{div}} \renewcommand{\div}{\operatorname{div}}
\newcommand{\grad}{\operatorname{grad}} \newcommand{\grad}{\operatorname{grad}}
...@@ -59,14 +61,34 @@ ...@@ -59,14 +61,34 @@
% Bold letters % Bold letters
\newcommand{\bn}{\mathbf{n}} \newcommand{\bn}{\mathbf{n}}
\newcommand*\bu{\bm{u}}
\newcommand{\bv}{\mathbf{v}} \newcommand{\bv}{\mathbf{v}}
\newcommand*\bA{\bm{A}}
\newcommand*\bH{\bm{H}}
\newcommand*\bI{\bm{I}}
\newcommand*\bL{\bm{L}}
\newcommand*\bP{\bm{P}}
\newcommand*\bQ{\bm{Q}}
\newcommand*\bV{\bm{V}}
\newcommand*\bHd{\bH(\div)}
\newcommand*\til{\widetilde}
\newcommand{\stackrela}[2]{\overset{#1}&{#2}}
\newcommand{\X}{\mathcal{X}} % Triangulierung
\newcommand{\V}{\mathcal{V}} % Triangulierung
\newcommand{\E}{\mathcal{E}} % Triangulierung
\newcommand{\F}{\mathcal{F}} % Triangulierung
\newcommand{\T}{\mathcal{T}} % Triangulierung
\DeclarePairedDelimiter{\set}{\lbrace}{\rbrace}
\DeclarePairedDelimiter{\norma}{\Vert}{\Vert_{A}}
\DeclarePairedDelimiter{\abs}{\lvert}{\rvert} \DeclarePairedDelimiter{\abs}{\lvert}{\rvert}
\DeclarePairedDelimiter{\norm}{\lVert}{\rVert} \DeclarePairedDelimiter{\norm}{\lVert}{\rVert}
\theoremstyle{plain} %Text ist Kursiv \theoremstyle{plain} %Text ist Kursiv
\newtheorem{theorem}{Satz}[chapter] \newtheorem{theorem}{Satz}[chapter]
\newtheorem{hilfssatz}{Hilfssatz}[chapter] \newtheorem{hilfssatz}[theorem]{Hilfssatz}
\newtheorem{lemma}[theorem]{Lemma} \newtheorem{lemma}[theorem]{Lemma}
\newtheorem{proposition}[theorem]{Proposition} \newtheorem{proposition}[theorem]{Proposition}
\newtheorem{corollary}[theorem]{Korollar} \newtheorem{corollary}[theorem]{Korollar}
...@@ -705,7 +727,7 @@ Dabei wählt man einen Parameter $\eta > 0$ und definiert ...@@ -705,7 +727,7 @@ Dabei wählt man einen Parameter $\eta > 0$ und definiert
Wir wenden das bekannte Konvergenzkriterium an: Wir wenden das bekannte Konvergenzkriterium an:
\begin{theorem} \begin{theorem}
Das Jacobi Verfahren konvergiert genau dann, wenn $\rho \left(I- \eta D^{-1}A \right) <1$. Das Jacobi Verfahren konvergiert genau dann, wenn $\rho (I- \eta D^{-1}A ) <1$.
\end{theorem} \end{theorem}
Das Verfahren konvergiert also immer, wenn man nur $\eta$ klein genug wählt. Das Verfahren konvergiert also immer, wenn man nur $\eta$ klein genug wählt.
...@@ -727,7 +749,7 @@ Die folgende Rechnung stammt aus~\citet[Beispiel~13.10]{dahmen_reusken:2008}. ...@@ -727,7 +749,7 @@ Die folgende Rechnung stammt aus~\citet[Beispiel~13.10]{dahmen_reusken:2008}.
Sei $A$ die Matrix des Poisson-Problems auf einem uniformen Gitter Sei $A$ die Matrix des Poisson-Problems auf einem uniformen Gitter
mit Dreiecks- oder Viereckselementen. Eine Zeile von $A$ ist dann mit Dreiecks- oder Viereckselementen. Eine Zeile von $A$ ist dann
\begin{equation*} \begin{equation*}
\frac{1}{h^2} \left(4u_{i,j}-u_{i-1,j}-u_{i+1,j}-u_{i,j-1}-u_{i,j+1} \right)=f_i. \frac{1}{h^2} (4u_{i,j}-u_{i-1,j}-u_{i+1,j}-u_{i,j-1}-u_{i,j+1} )=f_i.
\end{equation*} \end{equation*}
\begin{exercise} \begin{exercise}
...@@ -758,10 +780,10 @@ Daraus folgt dass ...@@ -758,10 +780,10 @@ Daraus folgt dass
\begin{align*} \begin{align*}
\rho (I - \eta D^{-1}A ) \rho (I - \eta D^{-1}A )
& = & =
\sup \left\lbrace \abs[\Big]{1- \frac{1}{4} \eta h^2 \lambda} \; : \; \text{$\lambda$ Eigenwert von $A$} \right\rbrace \\ \sup \lbrace \abs[\Big]{1- \frac{1}{4} \eta h^2 \lambda} \; : \; \text{$\lambda$ Eigenwert von $A$} \rbrace \\
% %
& = & =
1-2 \eta \sin^2 \left( \frac{1}{2} \pi h \right). 1-2 \eta \sin^2 ( \frac{1}{2} \pi h ).
\end{align*} \end{align*}
Mit $\eta = 1$ erhält man: Mit $\eta = 1$ erhält man:
\todo[inline]{Zeige den allgemeinen Fall!} \todo[inline]{Zeige den allgemeinen Fall!}
...@@ -773,7 +795,7 @@ Mit $\eta = 1$ erhält man: ...@@ -773,7 +795,7 @@ Mit $\eta = 1$ erhält man:
Taylor-Entwicklung: Taylor-Entwicklung:
\begin{equation*} \begin{equation*}
\cos \left( \pi h \right)=1-\frac{1}{2} \pi^2 h^2+\ldots \cos ( \pi h )=1-\frac{1}{2} \pi^2 h^2+\ldots
\end{equation*} \end{equation*}
Also ist Also ist
\begin{equation*} \begin{equation*}
...@@ -796,7 +818,7 @@ Da $\frac{\norm{e^k}}{\norm{e^0}} \approx \rho^k$ erhält man ...@@ -796,7 +818,7 @@ Da $\frac{\norm{e^k}}{\norm{e^0}} \approx \rho^k$ erhält man
= =
\log_\rho \frac{1}{R} \log_\rho \frac{1}{R}
= =
\frac{-\ln R}{\ln \rho \left(I-D^{-1}A \right)} \approx \frac{-\ln R}{\ln \left(1-\frac{1}{2}\pi^2 h^2 \right)} \approx \frac{2}{\pi^2 h^2} \ln R, \frac{-\ln R}{\ln \rho (I-D^{-1}A )} \approx \frac{-\ln R}{\ln (1-\frac{1}{2}\pi^2 h^2 )} \approx \frac{2}{\pi^2 h^2} \ln R,
\end{equation*} \end{equation*}
da $\ln x \approx (x-1)-\frac{1}{2} (x-1)^2 + \ldots$ ist. da $\ln x \approx (x-1)-\frac{1}{2} (x-1)^2 + \ldots$ ist.
...@@ -813,8 +835,8 @@ Betrachte noch einmal die Jacobi-Rechenvorschrift: ...@@ -813,8 +835,8 @@ Betrachte noch einmal die Jacobi-Rechenvorschrift:
\begin{equation*} \begin{equation*}
x_i^{k+1} x_i^{k+1}
= =
\frac{1}{A_{ii}} \left(b_i-A_{i1}x_1^{k} - A_{i2}x_2^{k}- \frac{1}{A_{ii}} (b_i-A_{i1}x_1^{k} - A_{i2}x_2^{k}-
\ldots -A_{i,i-1}x_{i-1}^k - A_{i,i+1}x_{i+1}^k - \ldots - A_{in}x_n^k \right). \ldots -A_{i,i-1}x_{i-1}^k - A_{i,i+1}x_{i+1}^k - \ldots - A_{in}x_n^k ).
\end{equation*} \end{equation*}
Eigentlich haben wir für $x_1,\ldots,x_{i-1}$ schon bessere Werte als $x_1^k,\ldots,x_{i-1}^k$, nämlich $x_1^{k+1},\ldots,x_{i-1}^{k+1}$. Eigentlich haben wir für $x_1,\ldots,x_{i-1}$ schon bessere Werte als $x_1^k,\ldots,x_{i-1}^k$, nämlich $x_1^{k+1},\ldots,x_{i-1}^{k+1}$.
...@@ -824,9 +846,9 @@ Gauß-Seidel-Verfahren: ...@@ -824,9 +846,9 @@ Gauß-Seidel-Verfahren:
\begin{align*} \begin{align*}
x_i^{k+1} x_i^{k+1}
& = & =
\frac{1}{A_{ii}} \left(b_i-A_{i1}x_1^{k+1} - \ldots -A_{i,i-1}x_{i-1}^{k+1}-A_{i,i+1}x_{i+1}^k-\ldots-A_{in}x_n^k \right) \\ \frac{1}{A_{ii}} (b_i-A_{i1}x_1^{k+1} - \ldots -A_{i,i-1}x_{i-1}^{k+1}-A_{i,i+1}x_{i+1}^k-\ldots-A_{in}x_n^k ) \\
& = & =
\frac{1}{A_{ii}} \left(b_i-\sum_{j=1}^{i-1} A_{ij}x_j^{k+1} -\sum_{j=i+1}^n A_{ij} x_j^k \right). \frac{1}{A_{ii}} (b_i-\sum_{j=1}^{i-1} A_{ij}x_j^{k+1} -\sum_{j=i+1}^n A_{ij} x_j^k ).
\end{align*} \end{align*}
$x_i^{k+1}$ hängt von $x_{i-1}^{k+1}$ ab $\implies$ keine Parallelisierung möglich. $x_i^{k+1}$ hängt von $x_{i-1}^{k+1}$ ab $\implies$ keine Parallelisierung möglich.
...@@ -859,6 +881,8 @@ Sei $A$ die Matrix des Poisson-Problems für ein quadratisches Gebiet. ...@@ -859,6 +881,8 @@ Sei $A$ die Matrix des Poisson-Problems für ein quadratisches Gebiet.
des Spektralradius der Gauß-Seidel Methode. Laut \citet{dahmen_reusken:2008} des Spektralradius der Gauß-Seidel Methode. Laut \citet{dahmen_reusken:2008}
steht das bei \cite{hackbusch:1994}. steht das bei \cite{hackbusch:1994}.
\todo[inline]{I overlooked Remark 5.5.2. in [3] (On the top of page 131). There is the explicit statement.}
\begin{exercise} \begin{exercise}
Finden Sie die genaue Stelle, und sagen Sie mir bescheid. Finden Sie die genaue Stelle, und sagen Sie mir bescheid.
\end{exercise} \end{exercise}
...@@ -888,7 +912,7 @@ Sei $A$ die Matrix des Poisson-Problems für ein quadratisches Gebiet. ...@@ -888,7 +912,7 @@ Sei $A$ die Matrix des Poisson-Problems für ein quadratisches Gebiet.
\begin{equation*} \begin{equation*}
\frac{- \ln R}{\ln \rho (I-(D-L)^{-1}A)} \frac{- \ln R}{\ln \rho (I-(D-L)^{-1}A)}
\approx \approx
\frac{- \ln R}{\ln \left(1-\pi^2h^2 \right)} \approx \frac{\ln R}{\pi^2h^2} \frac{- \ln R}{\ln (1-\pi^2h^2 )} \approx \frac{\ln R}{\pi^2h^2}
\end{equation*} \end{equation*}
Iterationen. Iterationen.
\end{itemize} \end{itemize}
...@@ -929,7 +953,7 @@ wobei $\norm{\cdot}_A$ die Energienorm ist. ...@@ -929,7 +953,7 @@ wobei $\norm{\cdot}_A$ die Energienorm ist.
\begin{theorem}[{\cite{shewchuk:1994}}] \begin{theorem}[{\cite{shewchuk:1994}}]
Sei $\kappa$ die Kondition der Matrix $A$. Dann gilt nach $k$ Schritten des CG-Verfahrens Sei $\kappa$ die Kondition der Matrix $A$. Dann gilt nach $k$ Schritten des CG-Verfahrens
\begin{align*} \begin{align*}
\norm{e^k}_A \leq 2 \left( \frac{\sqrt{\kappa}-1}{\sqrt{\kappa}+1} \right)^k \cdot \norm{e^0}_A. \norm{e^k}_A \leq 2 ( \frac{\sqrt{\kappa}-1}{\sqrt{\kappa}+1} )^k \cdot \norm{e^0}_A.
\end{align*} \end{align*}
\end{theorem} \end{theorem}
...@@ -1519,7 +1543,7 @@ Falls $\hat{A}$ nicht klein ist: Mehrgitter! ...@@ -1519,7 +1543,7 @@ Falls $\hat{A}$ nicht klein ist: Mehrgitter!
Man erhält das Mehrgitterverfahren. Zuerst konstruieren wir die Hierarchie Man erhält das Mehrgitterverfahren. Zuerst konstruieren wir die Hierarchie
der Steifigkeitsmatrizen $A_j$ der Steifigkeitsmatrizen $A_j$
\begin{algorithm}[H]\label{MGVerfahrenAlg} \begin{algorithm}[H]
\DontPrintSemicolon \DontPrintSemicolon
\textbf{Input:}$A_K = A$\\ \textbf{Input:}$A_K = A$\\
\For {$j = K-1,\dots,0$}{ \For {$j = K-1,\dots,0$}{
...@@ -1797,9 +1821,1726 @@ Ein möglicher Ausweg: Die Hierarchische-Basis-Methode~\cite{bank_dupont_yserent ...@@ -1797,9 +1821,1726 @@ Ein möglicher Ausweg: Die Hierarchische-Basis-Methode~\cite{bank_dupont_yserent
\end{itemize} \end{itemize}
\chapter{Teilraumkorrekturverfahren} \chapter{Teilraumkorrekturverfahren}
Wir beweisen jetzt die gitterunabhängige Konvergenz von Mehrgitterverfahren für elliptische Probleme.
\medskip
Dafür benutzen wir die Theorie der Teilraumkorrekturverfahren.
\begin{itemize}
\item \emph{Nachteil}: Es wird jetzt erstmal etwas trocken.
\item Vorteil~I: Wir können gitterunabhängige Konvergenz des Mehrgitterverfahrens zeigen,
ohne besondere Anforderungen an die Glattheit der Lösung $u$ stellen zu müssen.
\item Vorteil~II: Es gibt noch viele andere Verfahren, die man als
Teilraumkorrekturverfahren interpretieren kann.
\end{itemize}
\section{Projektionen}
Sei $X$ ein Hilbertraum mit Skalarprodukt $a(\cdot,\cdot) : X \times X \to \R$.
\medskip
Für uns ist $X$ meistens $\R^N$ oder ein Finite-Elemente-Raum $V_h$.
Es kann aber auch ein Sobolev-Raum wie $H^1_0(\Omega)$ sein.
\medskip
Das Skalarprodukt induziert eine Norm
\begin{equation*}
\norm{v}_a = \sqrt{a(v,v)}
\qquad
\forall v \in X.
\end{equation*}
Sei $X_1$ ein linearer Teilraum von $X$, und $e \in X$.
\medskip
\emph{Frage:} Welches Element $e_1$ aus $X$ ist am nächsten an $e$ dran?
\begin{definition}
Die Projektion von $e$ auf $X_1$ bzgl.\ $a(\cdot,\cdot)$ ist
\begin{equation*}
P_1 e \colonequals \argmin_{v \in X_1} \norm{e-v}_a.
\end{equation*}
\end{definition}
Leider kann man mit $\argmin$ schlecht rechnen.
\medskip
Alternativ kann man folgende Charakterisierung verwenden:
\begin{center}
\begin{tikzpicture}
\draw [<->] (-3,0) -- (3,0);
\draw [<->] ( 0,-1.5) -- (0,2);
\draw [thick] (-2,-1) -- (2.5,1.25);
\tikzset{ballstyle/.style={circle,draw,fill=black,inner sep=0pt,minimum size=1.1mm}}
\node (P1e) [ballstyle,label={-45:$P_1e$}] at (2,1) {};
\node (e) [ballstyle,label={135:$e$}] at (1.5,2) {};
\draw [dashed] (e) -- (P1e);
\node at (-2,2) {$X$};
\node at (-2,-0.6) {$X_1$};
\end{tikzpicture}
\end{center}
Der \glqq Unterschied\grqq{} $e-Pe$ steht senkrecht auf $X_1$,
bzlg.\ des Skalarprodukts $a(\cdot,\cdot)$.
\begin{lemma}
Sei $e_1 \in X_1$ und $e \in X$. Es gilt
\begin{equation*}
e_1 = P_1e
\end{equation*}
genau dann wenn
\begin{equation*}
a(e_1 - e,v) = 0 \quad \forall v \in X_1
\qquad \text{bzw.} \qquad
a(e_1,v) = a(e,v) \quad \forall v \in X_1.
\end{equation*}
\end{lemma}
\begin{proof}
Wir zeigen nur dass aus $a(e_1,v) = a(e,v) \; \forall v \in X_1$ die Gleichheit $e_1 = P_1 e$ folgt.
\medskip
Sei $v \in X_1$ beliebig. Dann gilt
\begin{align*}
\norm{e_1-e}^2_a
& =
a (e_1-e, e_1-e) + \underbrace{a(e_1-e, v-e_1)}_{=0} \\
%
& =
a(e_1-e,v-e) \\
%
& \le
\norm{e_1-e}_a \cdot \norm{v-e}_a \qquad \text{(Cauchy--Schwarz)}.
\end{align*}
Einmal durch $\norm{e_1-e}_a$ teilen gibt
\begin{equation*}
\norm{e_1-e}_a \le \norm{v-e}_a \qquad \forall v \in V_1.
\qedhere
\end{equation*}
\end{proof}
\section{Abstrakte Teilraumkorrekturverfahren}
Wir führen jetzt eine abstrakte Verfahrensklasse ein. Dabei treffen wir
alte Bekannte wieder.
\medskip
Sei wieder $X$ ein Vektorraum, diesmal mit:
\begin{itemize}
\item einem Skalarprodukt $(\cdot,\cdot) : X \to X \to \R$,
\medskip
($X$ sei vollständig bzgl.\ der von $(\cdot,\cdot)$ induzierten Norm),
\item einer $X$-elliptischen Bilinearform $a(\cdot,\cdot) : X \times X \to \R$.
\end{itemize}
\medskip
Wir suchen eine Lösung $u^*$ des Variationsproblems
\begin{equation}
\label{eq:scm_general_weak_problem}
a(u,v) = (f,v)
\qquad
\forall v \in X.
\end{equation}
Definiere den linearen Operator $A : X \to X$ durch
\begin{equation*}
(Av,w) = a(v,w)
\qquad
\forall v,w \in X.
\end{equation*}
Dann ist~\eqref{eq:scm_general_weak_problem} äquivalent zu
\begin{equation*}
Au = f.
\end{equation*}
\subsection{Idee der Teilraumkorrekturverfahren}
Sei wieder $X_1$ ein Teilraum von $X$, und $P_1 : X \to X_1$
die $a(\cdot,\cdot)$-orthogonale Projektion.
\begin{itemize}
\item Sei $u^* \in X$ die Lösung von $Au = f$, und $u^k \in X$
die aktuelle Iterierte eines iterativen Verfahrens.
\begin{center}
\begin{tikzpicture}
\draw [<->] (-3,0) -- (3,0);
\draw [<->] ( 0,-1.5) -- (0,2);
\node at (-2,2) {$X$};
\draw [thick] (-2,-1) -- (2.5,1.25);
\node at (-2,-0.6) {$X_1$};
\tikzset{ballstyle/.style={circle,draw,fill=black,inner sep=0pt,minimum size=1.1mm}}
\node (uk) [ballstyle,label={0:$u^k$}] at (1.8,1.8) {};
\node (ustar) [ballstyle,label={180:$u^*$}] at (1,0.7) {};
\draw [dashed] (uk) -- (ustar);
\draw [dashed,->] (uk) -- ++(-1.1,-0.55);
\node at (1,2) {$P_1(u^* - u^k)$};
\end{tikzpicture}
\end{center}
\item Wir würden gerne $u^* - u^k$ ausrechnen, aber das ist so teuer
wie das eigentliche Berechnen von $u^*$.
\item \emph{Idee:} Billiger ist es, $P_1(u^* - u^k)$ zu berechnen,
denn das ist nur ein lineares Problem in $X_1$:
\begin{align*}
a(P_1(u^* - u^k), v)
& =
a(u^* - u^k, v) \\
& =
(f,v) - a(u^k,v)
\qquad
\forall v \in X_i.
\end{align*}
\item Vorschlag für eine bessere Approximation von $u^*$ deshalb
\begin{equation*}
u^{k+1} = u^k + P_1(u^* - u^k).
\end{equation*}
\end{itemize}
Das ganze kann natürlich nur dann zu einem konvergenten Verfahren führen,
wenn man mehrere Teilräume hat.
Für ein Teilraumkorrekturverfahren wählen wir jetzt eine endliche Menge von Teilräumen
\begin{equation*}
X_i \subset X,
\qquad
i = 1,\dots, K.
\end{equation*}
Für jeden Raum $X_i$ definieren wir die $a(\cdot,\cdot)$-Projektion $P_i : X \to X_i$ durch
\begin{equation*}
a(P_iu,v) = a(u,v)
\qquad
\forall v \in X_i.
\end{equation*}
\medskip
Die jeweiligen Korrekturen kann man dann auf unterschiedliche Weise kombinieren:
\begin{itemize}
\item Man kann sie addieren:
\begin{align*}
u^{k+1}
& =
u^k + P_1 (u^* - u^k) + P_2 (u^* - u^k) \\
& =
u^k + (P_1 + P_2) (u^* - u^k).
\end{align*}
\item Man kann sie nacheinander anwenden:
\begin{align*}
u^{k+\frac{1}{2}}
& =
u^k + P_1 (u^* - u^k) \\
u^{k+1}
& =
u^{k+\frac{1}{2}} + P_2 (u^* - u^{k+\frac{1}{2}}) \\
& =
u^k + P_1(u^* - u^k) + P_2(u^* - u^k - P_1(u^* - u^k)) \\
& =
u^k + (P_1 + P_2 - P_2 P_1)(u^* - u^k).
\end{align*}
\end{itemize}
Bei mehr als zwei Teilräumen kann man beliebige Kombinationen in betracht ziehen.
\bigskip
Das motiviert die folgende Definition:
\begin{definition}
Ein lineares Teilraumkorrekturverfahren ist eine Iteration der Form
\begin{equation*}
u^{k+1} = u^k + \mathcal{P}(P_1,\dots,P_K)(u^* - u^k),
\end{equation*}
wobei $\mathcal{P}(P_1,\dots,P_K)$ ein Polynom in den Projektionsoperatoren $P_1,\dots,P_K$
ist.
\end{definition}
Teilraumkorrekturverfahren sind lineare iterative Verfahren, denn
\begin{equation*}
u^{k+1} = u^k + \mathcal{P}(P_1,\dots,P_K)(u^* - u^k) = u^k + \mathcal{P}(P_1,\dots,P_p)A^{-1}(f-Au^n).
\end{equation*}
Der Vorkonditionierer ist also $\mathcal{P}A^{-1}$, und die Iterationsmatrix
ist $I- \mathcal{P}$.
\medskip
Beachte dass zur praktischen Durchführung die Matrix $A^{-1}$ \emph{nicht}
berechnet werden muss!
\subsection{Das additive Schwarz-Verfahren}
Das additive Schwarz-Verfahren hat die Form
\begin{align*}
u^{n+1}
& =
u^n + \mathcal{P}(P_1,\dots,P_K) A^{-1}(f-Au^n)
\end{align*}
mit
\begin{equation*}
\mathcal{P}(P_1,\dots,P_K) = P_1 + \dots + P_K
\end{equation*}
\todo[inline]{Beispiel: Das Jacobi-Verfahren als additives Schwarz-Verfahren}
\subsection{Das multiplikative Schwarz-Verfahren}
Mit den gleichen (Teil-)Räumen wie eben schreibt man
\begin{equation*}
u^{n+1} = u^n + \Big[I-(I-B_pA)\dots(I-B_1A)\Big] A^{-1} (f-Au^n)
\end{equation*}
als Teilraumkorrekturverfahren mit
\begin{equation*}
\mathcal{P}(P_1,\dots,P_p) = I-(I-B_pA)\dots(I-B_1A).
\end{equation*}
\paragraph{Beispiel: Gauß--Seidel-Verfahren für ein 2x2-System}
Wir betrachten das Gauß--Seidel-Verfahren für das lineare Gleichungssystem
\begin{equation*}
A x = b
\end{equation*}
mit einer $2 \times 2$ Matrix $A$.
\begin{itemize}
\item Wähle $V = \R^2$ und zwei Teilräume $V_1 = (\cdot,0)$, $V_2 = (0,\cdot)$
%
\item Die $A$-Orthogonalprojektionen auf die Teilräume sind
\todo[inline]{Die $R_i$ sind noch nicht definiert!}
\begin{equation*}
P_i
=
R_i^T(R_i A R_i^T)^{-1} R_i A
=
\begin{cases}
\begin{pmatrix} a_{11}^{-1} & 0 \\ 0 & 0 \end{pmatrix}A & \text{if $i=1$} \\
\begin{pmatrix} 0 & 0 \\ 0 & a_{22}^{-1} \end{pmatrix}A & \text{if $i=2$}
\end{cases}
\end{equation*}
\end{itemize}
Also ist z.\,B. der erste Halbschritt des multiplikativen Schwarz-Verfahrens