@@ -552,27 +552,22 @@ Direkte Verfahren wie Gauß-Elimination oder Cholesky-Zerlegung sind i.A. zu teu
Iterative Verfahren konstruieren eine Folge $\{ x^k \}_{k \in\N}$,
die (hoffentlich) gegen die Lösung $x^*$ von $Ax=b$ konvergiert.
\medskip
\bigskip
Bei linearen iterativen Verfahren ist die Abbildung
Für \emph{lineare} iterative Verfahren~\cite{dahmen_reusken:2008} schreibt man
$Ax=b$ als Fixpunktgleichung
\begin{equation*}
e^k \colonequals x^k - x^*
\qquad\mapsto\qquad
e^{k+1}\colonequals x^{k+1} - x^*
x=x+C(b-Ax)
\end{equation*}
linear.
\bigskip
mit einer nichtsingulären Matrix $C \in\R^{n \times n}$.
Der normale Ansatz ist~\cite{dahmen_reusken:2008}:
\medskip
Schreibe $Ax=b$ als Fixpunktgleichung
\begin{equation*}
x=x+C(b-Ax)
\end{equation*}
mit $C \in\R^{n \times n}$ nichtsingulär. Die Größe $r(x)\colonequals b - Ax$
Die Größe $r(x)\colonequals b - Ax$
nennt man \emph{Residuum}. Die Matrix $C$ heißt \emph{Vorkonditionierer}.
\bigskip
Dafür machen wir jetzt eine Fixpunktiteration:
\begin{equation*}
x^{k+1}\colonequals x^k+C (b-Ax^k)=(I-CA)x^k+Cb,
...
...
@@ -580,44 +575,29 @@ Dafür machen wir jetzt eine Fixpunktiteration:
k = 0, 1, 2, \dots
\end{equation*}
Unter welchen Umständen konvergiert dieses Verfahren?
\medskip
Der Fehler im $k$-ten Iterationsschritt ist $e^k=x^k-x^*$. Es gilt
Der Fehler im $k$-ten Iterationsschritt ist $e^k \colonequals x^k-x^*$. Es gilt
\begin{equation*}
e^{k+1}=x^{k+1}-x^*
=
\underbrace{(I-CA)}_{\text{Iterationsmatrix}}e^k.
\end{equation*}
Also gilt
\begin{equation}
\label{equa:eqerrlin}
e^k=(I-CA)^ke^0
\qquad
\forall k=0,1,2,\ldots
\end{equation}
Das erklärt den Namen: Die Abbildung $e^k \mapsto e^{k+1}$ ist linear.
\begin{definition}
Die Matrix $I - CA$ heißt \emph{Iterationsmatrix} der Methode.
\end{definition}
\subsubsection{Konvergenz:}
Die Fehlerfortpflanzung \eqref{equa:eqerrlin} ist tatsächlich linear.
\bigskip
Für die Konvergenz gilt der folgende wichtige Satz.
Für jede Vektornorm mit assoziierter Matrixnorm erhält man
\begin{theorem}
Sei $\norm{\cdot}$ eine submultiplikative Matrixnorm.
Das Verfahren konvergiert für jeden Startwert $x^0\in\R^n$ gegen die Lösung
von $Ax = b$, wenn $\norm{I - CA} < 1$.
\end{theorem}
Da$\rho(B)\leq\norm{B}$ für jede submultiplikative Matrixnorm gilt sogar
[Denn: Sei $v$ ein Eigenvektor von $B$zum Eigenwert $\lambda$. Dann ist
Sei$\rho$ der Spektralradius einer Matrix. Für jede submultiplikative Matrixnorm
gilt $\rho(B)\leq\norm{B}$, denn für jeden Eigenvektor $v$ von $B$
zum Eigenwert $\lambda$ gilt
\begin{equation*}
\abs{\lambda}\norm{v}
=
...
...
@@ -627,13 +607,22 @@ Da $\rho (B) \leq \norm{B}$ für jede submultiplikative Matrixnorm gilt sogar
\le
\norm{B}\norm{v}.
\end{equation*}
Deshalb gilt $\abs{\lambda}\le\norm{B}$ für alle Eigenwerte $\lambda$ von $B$.]
Damit erhält man:
\begin{theorem}
Sei $\rho(I-CA)$ der Spektralradius von $I-CA$. Das Verfahren konvergiert für jeden Startwert $x^0\in\R$ gegen die Lösung von $Ax=b$ genau dann, wenn $\rho(I-CA)<1$.
\end{theorem}
Je nach Wahl des Vorkonditionierers $C$ erhält man unterschiedliche Verfahren:
Je nach Wahl des Vorkonditionierers $C$ erhält man unterschiedliche Verfahren.
Es ergibt sich folgendes Dilemma:
\begin{enumerate}
\item$C$ soll $A^{-1}$ möglichst gut approximieren,
\item die Operation $y \mapsto Cy$ soll möglichst billig sein.
\end{enumerate}
Seien $D$, $L$, $R$ die Diagonale bzw.\ der linke und rechte Dreiecksteil von $A$.
Man erhält die folgenden Standardverfahren:
\begin{itemize}
\item Das Jacobi-Verfahren
\begin{equation*}
...
...
@@ -647,15 +636,10 @@ Je nach Wahl des Vorkonditionierers $C$ erhält man unterschiedliche Verfahren:
\item Das symmetrische Gauß--Seidel-Verfahren
\begin{equation*}
C = (D-L)^{-1}+(D-R)^{-1}-(D-R)^{-1}A(D-L)^{-1}
C = (D+L)^{-1}+(D+R)^{-1}-(D+R)^{-1}A(D+L)^{-1}
\end{equation*}
\end{itemize}
Es ergibt sich folgendes Dilemma:
\begin{enumerate}
\item$C$ soll $A^{-1}$ möglichst gut approximieren
\item Die Operation $y \mapsto Cy$ soll möglichst billig sein
\end{enumerate}
\emph{Beachte:} Die Matrix $C$ wird nie explizit ausgerechnet!
...
...
@@ -664,35 +648,35 @@ Es ergibt sich folgendes Dilemma:
Wir betrachten dieses Verfahren etwas genauer. Man kann es auch
\glqq direkt\grqq motivieren.
Wir nehmen im Folgenden an, dass $a_{ii}\neq0$ für alle $i=1,\ldots,n$.
Wir nehmen im Folgenden an, dass $A_{ii}\neq0$ für alle $i=1,\ldots,n$.