Commit 0e3cd1a3 authored by Sander, Oliver's avatar Sander, Oliver
Browse files

Diverse Detailverbesserungen

parent bdd6e92d
Pipeline #6370 passed with stage
in 3 minutes and 52 seconds
......@@ -3186,7 +3186,7 @@ Spektralradius der multiplikativen Methode abgeschätzt.}
\end{equation*}
\end{theorem}
Die Selbstadjungiertheit von $\_\text{add}A = P \colonequals \sum_{i=1}^K P_i$
Die Selbstadjungiertheit von $B_\text{add}A = P \colonequals \sum_{i=1}^K P_i$
folgt aus der Selbstadjungiertheit der $P_i$. Und die gilt da für all $u,v \in X$
\begin{equation*}
a(P_i u,v) = a(v,P_i u) = a(P_iv,P_i u) = a(P_i u, P_i v) = a(u,P_i v).
......@@ -4586,7 +4586,17 @@ kleine Unterschiede.
Dies ist fast Definition~\ref{def:TRK_annahme_1}, aber nicht ganz:
Dort muss die Abschätzung für alle $x$ aus $X_j$ gelten, hier nur für alle
$x$ aus $(I-P_{j-1})X_j$.
\todo[inline]{Beispiel: Wie sieht so ein Raum aus?}
\begin{example}
Sei $X_{j-1}$ der Raum aller Lagrange-FE-Funktionen erster Ordnung auf
einem Gitter $\mathcal{T}_{j-1}$ ist, und $X_j$ der entsprechende Raum
auf einer uniformen Verfeinerung von $\mathcal{T}_{j-1}$.
Dann ist wird $(I- P_{j-1})X_j$ aufgespannt durch die Knotenbasisfunktionen
$\varphi_j^i$ zu allen Knoten die es in $\mathcal{T}_j$ gibt, aber nicht
in $\mathcal{T}_{j-1}$.
\end{example}
\begin{definition}
Es existiert $\beta >0$, so dass für beliebige $x,y\in X_j$ mit $x=\sum_{i=1}^{n_j} x^i$
......@@ -4605,34 +4615,40 @@ Anschaulich gesprochen, überlappen sich die Unterräume $X_{j}^k$ kaum.
\subsubsection{Die additive Methode}
Wir definieren die additive Methode von Schwarz $R_{j}^{a}\colon X_{j} \to X_{j}$ durch $R_{j}^a \colonequals\eta R_{j}$ mit
Wir definieren die additive Methode von Schwarz $\Radd_j : X_{j} \to X_{j}$ durch
$\Radd_j \colonequals\eta R_{j}$ mit
\begin{equation}\label{defsschwarz}
R_{j}
=
\sum_{i=1}^{n_j} A_{j,i}^{-1} Q_j^i
=
\sum_{i=1}^{n_j} P_j^i A_{j,i}^{-1}
\end{equation}
und einer Skalierungskonstante $\eta$.
\todo[inline]{Wie genau interpretiert man das $A_{j,i}^{-1}$?}
Wegen Lemma~\ref{lem:QjAleqAjPj} ist das äquivalent zur bisherigen Definition
\begin{equation}
\label{eq:aschwarzrepre}
R_j A_j
=
\sum_{i=1}^{n_j} P_j^i.
\end{equation}
\begin{theorem}\label{satzAsspossyminv}
Die additive Methode von Schwarz $R^a_{j}$ ist positiv definit, symmetrisch bzgl. $(\cdot,\cdot)$ und invertierbar.
Die additive Methode von Schwarz $\Radd_j$ ist positiv definit, symmetrisch bzgl. $(\cdot,\cdot)$ und invertierbar.
\end{theorem}
\todo[inline]{Können wir den Beweis in ein früheres Kapitel schieben?}
\begin{proof}
Sei $x\in X_{j}\backslash\set{0}$. Mit der Definition von $R_{j}$ in \eqref{defsschwarz} und da $A_{j,k}^{-1}$ positiv definit ist, folgt
\begin{equation*}
(R_{j}x,x) = \sum_{k=1}^K (A_{j,k}^{-1}Q^k_{j}x,x) = \sum_{k=1}^K (A_{j,k}^{-1}Q^k_{j}x,Q^k_{j}x) > 0.
(R_{j}x,x) = \sum_{i=1}^{n_j} (A_{j,i}^{-1}Q^i_{j}x,x) = \sum_{i=1}^{n_j} (A_{j,i}^{-1}Q^i_{j}x,Q^i_{j}x) > 0.
\end{equation*}
Damit ist $R_{j}$ positiv definit.\\
Damit ist $R_{j}$ positiv definit.
Seien $x,y\in X_{j}$ beliebig.
Dann folgt die Symmetrie von $R_{j}$ bezüglich $(\cdot,\cdot)$ durch
\begin{align*}
(R_{j}x,y) &= \sum_{k=1}^K (A_{j,k}^{-1}Q^k_{j}x,y) \\
&= \sum_{k=1}^K (A_{j,k}^{-1}Q^k_{j}x,Q^k_{j}y) \\
&= \sum_{k=1}^K (Q^k_{j}x,A_{j,k}^{-1}Q^k_{j}y) \\
&= (x,R_{j}y).
(R_jx,y) &= \sum_{k=i}^{n_j} (A_{j,i}^{-1} Q^i_j x,y) \\
&= \sum_{k=i}^{n_j} (A_{j,i}^{-1} Q^i_{j}x, Q^i_jy) \\
&= \sum_{k=i}^{n_j} (Q^i_jx, A_{j,i}^{-1} Q^i_jy) \\
&= (x,R_jy).
\end{align*}
Als linearer, positiv definiter Operator auf einem endlich-dimensionalen Raum $X_j$
ist $R_j$ auch invertierbar.
......@@ -4647,8 +4663,6 @@ und einer Skalierungskonstante $\eta$.
Für den Beweis brauchen wir wieder Hilfssatz~\ref{lem:aPinvuu_has_minimal_energy}.
Zur Erinnerung: Dieser besagt:
\todo[inline]{Hilfssatz~\ref{lem:aPinvuu_has_minimal_energy} ist anders hingeschrieben.
Dort steht links ebenfalls das $a(\cdot,\cdot)$-Skalarprodukt.}
\begin{lemma}\label{smootherinveqinfsum}
Für die additive Methode von Schwarz mit $\eta=1$ gilt für jedes $j=1,\dots ,J$
......@@ -4659,6 +4673,19 @@ Dort steht links ebenfalls das $a(\cdot,\cdot)$-Skalarprodukt.}
\end{equation*}
\end{lemma}
\emph{Achtung:} In Hilfssatz~\ref{lem:aPinvuu_has_minimal_energy} steht auf der linken Seite
$a(P^{-1}x,x)$ statt $((\Radd_j)^{-1}x,x)$. Das macht aber keinen Unterschied, denn
\begin{equation*}
((\Radd_j)^{-1}x,x)
=
(A_j (\Radd_j A_j)^{-1}x,x)
=
a((\Radd_j A_j)^{-1}x,x)
=
a(P^{-1}x,x).
\end{equation*}
\begin{proof}[Beweis von Satz \ref{konvergenceAdditiveSmoother}]
Der Beweis basiert auf \cite{arnold2000multigrid}, Kapitel 3.
Zuerst zeigen wir, dass Bedingung \eqref{eq:scondition2} erfüllt ist,
......@@ -4825,7 +4852,7 @@ Das folgende Lemma zeigt, dass die multiplikative Methode positiv definit ist.
\begin{equation*}
(R^\textup{add}_{j}x,x) \leq \beta^2 (R_{j}^\textup{mult}x,x)\quad \forall x\in X_{j}
\end{equation*}
mit $\beta$ aus der Überlappungsbedingung \eqref{ssmcondition1}.
mit $\beta$ aus der Überlappungsbedingung~\eqref{eq:ssmcondition1}.
\end{lemma}
\begin{proof}
Der Beweis wurde \cite{arnold1997preconditioning} entnommen.
......@@ -4855,7 +4882,7 @@ Das folgende Lemma zeigt, dass die multiplikative Methode positiv definit ist.
Damit erhalten wir
\begin{align}\label{msshelp1}
a(R_{j}^aAx,x)
\stackrela{\eqref{aschwarzrepre}}{=}
\stackrela{\eqref{eq:aschwarzrepre}}{=}
\sum_{k=1}^{K} a(P_{j}^kx,x)\\
%
\stackrela{\text{Lemma~\ref{helplemmaAssleqmss}}}{=}
......@@ -4898,7 +4925,7 @@ Das folgende Lemma zeigt, dass die multiplikative Methode positiv definit ist.
Schließlich gilt mit \eqref{msseq}
\begin{align}
a(R_{j}^aA_{j}x,x)
\stackrela{\eqref{aschwarzrepre}}{=}
\stackrela{\eqref{eq:aschwarzrepre}}{=}
\sum_{k=1}^{K} a(P_{j}^kx,x) \nonumber\\
%
&\leq
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment