Commit 9e15866e authored by Sander, Oliver's avatar Sander, Oliver
Browse files

Verbessere Details im Mehrgitter-Konvergenzsatz

parent 3bb0048b
Pipeline #6470 passed with stage
in 3 minutes and 24 seconds
......@@ -1415,6 +1415,9 @@ von $V_h^\text{fein} = V_h$ ist.
\end{equation*}
Man nennt $P$ den \emph{Prolongationsoperator}.
\todo[inline]{Später ist $P^T$ die $L^2$-Projektion und wird $Q$ genannt.
Vielleicht können wir das hier schon vorbereiten?}
\item Da in diesem Beispiel die Räume geschachtelt sind nehmen wir einfach
die kanonische Injektion:
......@@ -4188,8 +4191,8 @@ Da die $X_i$ geschachtelt sind haben die Projektionsoperatoren einige besondere
\end{equation}
\end{lemma}
Anschaulich besagt das Lemma, dass eine Projektion auf einen kleinen Raum alle Projektionen
überdeckt, die eventuell vorher ausgeführt wurden.
Anschaulich besagt das Lemma, dass es egal ist ob ich vor oder nach einer Projektion
noch auf einen Übermenge projiziere.
\begin{proof}
Seien $x,y\in X$.
......@@ -4561,9 +4564,8 @@ von Schwarz die Bedingungen aus Satz~\ref{thm:absMGconvergence} erfüllen.
Dafür zerlegen wir die endlichdimensionalen Unterräume $X_j$ wieder in Unterräume $X_{j}^i$
für $i=1,\dots, n_j$, so dass
\begin{equation*}
X_j = \sum_{i=1}^{n_j} X_j^i
X_j = \sum_{i=1}^{n_j} X_j^i.
\end{equation*}
gilt.
Dann kann ein beliebiges $x\in X_{j}$ durch
\begin{equation*}
......@@ -4572,17 +4574,17 @@ Dann kann ein beliebiges $x\in X_{j}$ durch
mit $x_i\in X_{j}^i$, beschrieben werden.
Diese Zerlegung hängt von den Räumen $X_{j}^i$ ab und ist im Allgemeinen nicht eindeutig.
Wir nutzen die Operatoren $A_{j},P_{j},Q_{j}$ für die Teilräume $X_j^i$
und bezeichnen sie mit $A_{j,i},P_{j}^i$ und $Q_{j}^i$.
Im Hinterkopf haben wir dabei wieder Zerlegungen gemäß der Knotenbasis, aber es kommen
später auch noch andere.
\medskip
Wir nutzen die Operatoren $A_{j},P_{j},Q_{j}$ für die Teilräume $X_j^i$
und bezeichnen sie mit $A_{j,i},P_{j}^i$ und $Q_{j}^i$.
\bigskip
Die Güte der Zerlegungen $\{X_j^i\}$ macht sich wieder an zwei Konstanten fest.
Dies sind fast die Konstanten $C_0$ und $\rho(\mathcal{E})$ aus den
Diese sind verwandt mit den Konstanten $C_0$ und $\rho(\mathcal{E})$ aus den
Definitionen~\ref{def:TRK_annahme_1} bzw.~\ref{def:TRK_annahme_2}, aber es gibt
kleine Unterschiede.
......@@ -4620,10 +4622,22 @@ $x$ aus $(I-P_{j-1})X_j$.
\end{equation}
gilt.
\end{definition}
\todo[inline]{Wie verhält sich diese Definition zu~\ref{def:TRK_annahme_2}?}
Bedingung~\eqref{eq:ssmcondition1} ist ein Spezialfall der Cauchy-Schwarz Ungleichung.
Sie folgt, wenn für jedes $k\in \set{1,\dots ,K}$ die Anzahl der Unterräume $X_{j}^{k'}$ mit $P_{j}^kx^{k'}\neq 0$, für alle $x^{k'}\in X_{j}^{k'}$, beschränkt ist.
Anschaulich gesprochen, überlappen sich die Unterräume $X_{j}^k$ kaum.
Genau wie Definition~\ref{def:TRK_annahme_2} wird hier verlangt dass
die Teilräume \glqq möglichst senkrecht\grqq{} zueinander stehen.
Falls~\eqref{eq:ssmcondition1} für alle $x,y \in X_j$ gilt, so gilt es insbesondere
für $x \in X_n$, $y \in X_m$ (d.h.\ $x$ und $y$ sind in jeweils einem der Teilräume
enthalten), und dann folgt
\begin{align*}
a(x,y)
& =
\sum_{i,l=1}^{n_j} a(x^i, x^l) \\
& \le
\beta \bigg[ \sum_{i=1}^{n_j} a(x^i,x^i)\bigg]^{\frac{1}{2}} \bigg[ \sum_{i=1}^{n_j} a(y^i,y^i)\bigg]^\frac{1}{2}
=
\beta a(x^n, x^n)^\frac{1}{2} a(x^m, x^m)^\frac{1}{2},
\end{align*}
und das ist Definition~\ref{def:TRK_annahme_2}.
\subsubsection{Die additive Methode}
......@@ -4646,7 +4660,7 @@ Wegen Lemma~\ref{lem:QjAleqAjPj} ist das äquivalent zur bisherigen Definition
\begin{theorem}\label{satzAsspossyminv}
Die additive Methode von Schwarz $\Radd_j$ ist positiv definit, symmetrisch bzgl. $(\cdot,\cdot)$ und invertierbar.
\end{theorem}
\todo[inline]{Können wir den Beweis in ein früheres Kapitel schieben?}
\todo[inline]{Dieses Resultat wurde bereits weitestgehend bewiesen, und ist hier nur Wiederholung.}
\begin{proof}
Sei $x\in X_{j}\backslash\set{0}$. Mit der Definition von $R_{j}$ in \eqref{defsschwarz} und da $A_{j,k}^{-1}$ positiv definit ist, folgt
\begin{equation*}
......@@ -4670,33 +4684,34 @@ Wegen Lemma~\ref{lem:QjAleqAjPj} ist das äquivalent zur bisherigen Definition
\begin{theorem}\label{konvergenceAdditiveSmoother}
Seien die Bedingungen \eqref{eq:ssmcondition2} und \eqref{eq:ssmcondition1} erfüllt und sei die Skalierungskonstante $\eta <\frac{1}{\beta}$.
Dann erfüllt die additive Methode von Schwarz $\eta \Radd_j = R_{j}$ die Bedingungen von Satz~\ref{thm:absMGconvergence} mit $\alpha = \frac{\gamma}{\eta}$.
Dann erfüllt die additive Methode von Schwarz $\Radd_j = \eta R_{j}$ die Bedingungen von Satz~\ref{thm:absMGconvergence} mit $\alpha = \frac{\gamma}{\eta}$.
\end{theorem}
Für den Beweis brauchen wir wieder Hilfssatz~\ref{lem:aPinvuu_has_minimal_energy}.
Zur Erinnerung: Dieser besagt:
\begin{lemma}\label{smootherinveqinfsum}
Für die additive Methode von Schwarz mit $\eta=1$ gilt für jedes $j=1,\dots ,J$
Für die additive Methode von Schwarz gilt für jedes $j=1,\dots ,J$
\begin{equation*}
((\Radd_j)^{-1}x,x)
(R_j^{-1}x,x)
=
\inf_{\substack{x= \sum_{i=1}^{n_j} x^i\\x^i\in X_{j}^i }} \sum_{i=1}^{n_j} a(x^i,x^i) \quad \forall x\in X_{j}.
\end{equation*}
\end{lemma}
\emph{Achtung:} In Hilfssatz~\ref{lem:aPinvuu_has_minimal_energy} steht auf der linken Seite
$a(P^{-1}x,x)$ statt $((\Radd_j)^{-1}x,x)$. Das macht aber keinen Unterschied, denn
$a(P^{-1}x,x)$ statt $(R_j^{-1}x,x)$. Das macht aber keinen Unterschied, denn
\begin{equation*}
((\Radd_j)^{-1}x,x)
(R_j^{-1}x,x)
=
(A_j (\Radd_j A_j)^{-1}x,x)
(A_j (R_j A_j)^{-1}x,x)
=
a((\Radd_j A_j)^{-1}x,x)
a((R_j A_j)^{-1}x,x)
=
a(P^{-1}x,x).
\end{equation*}
\bigskip
\begin{proof}[Beweis von Satz \ref{konvergenceAdditiveSmoother}]
Der Beweis basiert auf \cite{arnold2000multigrid}, Kapitel 3.
......@@ -4705,11 +4720,9 @@ $a(P^{-1}x,x)$ statt $((\Radd_j)^{-1}x,x)$. Das macht aber keinen Unterschied,
\begin{equation*}
((\Radd_j)^{-1} x,x) \le \alpha a(x,x)
\qquad
\forall x \in (I - P_{j-1})X_j
\forall x \in (I - P_{j-1})X_j.
\end{equation*}
Sei $x\in X_{j}$ beliebig und gelte Bedingung~\eqref{eq:ssmcondition2}.
Dann gilt
\begin{align*}
......@@ -4736,7 +4749,7 @@ $a(P^{-1}x,x)$ statt $((\Radd_j)^{-1}x,x)$. Das macht aber keinen Unterschied,
\end{equation*}
Sei $x\in X_{j}$. Dann gilt
\begin{align*}
a(R_{j}A_{j}x,x)
a(\Radd_j A_{j}x,x)
\stackrela{\text{Def.\ $R_{j}$}}{=}
\eta \sum_{i=1}^{n_j} a( A_{j,i}^{-1}Q_{j}^i A_{j}x,x) \\
%
......@@ -4751,15 +4764,15 @@ $a(P^{-1}x,x)$ statt $((\Radd_j)^{-1}x,x)$. Das macht aber keinen Unterschied,
\end{align*}
Wir nutzen Bedingung~\eqref{eq:ssmcondition1} mit $x^k= P^k_{j}x\in X_{j}^k$ und $y^l = P^l_{j}x\in X_{j}^l$ und erhalten
\begin{align*}
a(R_{j}A_{j}x,x)
a(\Radd_jA_{j}x,x)
&\leq
\eta \beta [ \sum_{k=1}^{K} a( P_{j}^kx,P_{j}^kx)]^\frac{1}{2} [\sum_{k=1}^{K} a( P_{j}^kx,P_{j}^kx)]^\frac{1}{2} \\
\eta \beta [ \sum_{i=1}^{n_j} a( P_{j}^i x,P_{j}^ix)]^\frac{1}{2} [\sum_{l=1}^{n_j} a( P_{j}^l x,P_j^l x)]^\frac{1}{2} \\
%
& =
\eta \beta \sum_{k=1}^{K} a( P_{j}^kx,P_{j}^kx)\\
\eta \beta \sum_{i=1}^{n_j} a( P_j^i x,P_j^ix)\\
%
& =
\eta \beta \sum_{k=1}^{K} a( x,P_{j}^kx)\\
\eta \beta \sum_{i=1}^{n_j} a( x,P_j^i x)\\
%
& =
\eta \beta a(x,x).
......@@ -4811,27 +4824,39 @@ Die Rückwärtsiteration ist nötig um ein symmetrisches Verfahren zu erhalten.
& =
a(x, (I-\Rmult_j A_{j})y).
\end{align}
Es ist also $I-\Rmult_j A_{j}$ selbstadjungiert bzgl.\ $a(\cdot,\cdot)$.
Dann ergibt sich
\begin{equation*}
a(\Rmult_j A_{j}x,y) = a(x,\Rmult_j A_{j}y).
\end{equation*}
Es ist also $I-\Rmult_j A_{j}$ selbstadjungiert bzgl.\ $a(\cdot,\cdot)$,
und ebenso $\Rmult_j A_{j}$.
Daraus folgt
\begin{equation*}
(\Rmult_j A_{j}x, A_j y) = a(A_j x, \Rmult_j A_{j}y).
\end{equation*}
Die Behauptung folgt nun, da der Operator $A_{j}$ invertierbar ist.
\begin{align*}
(\Rmult_j x,y)
& =
(\Rmult_j A_j\bar{x}, A_j\bar{y})
=
a(\Rmult_j A_j\bar{x}, \bar{y}) \\
& =
a(\bar{x}, \Rmult_j A_j\bar{y})
=
(A_j \bar{x}, \Rmult_j A_j\bar{y})
=
(x, \Rmult_j y).
\qedhere
\end{align*}
\end{proof}
Definiere für $k=1,\dots ,K$ den Operator $E_{k}:X_{j}\to X_j$ durch die Rekursion
\bigskip
Im Platz zu sparen führen wir neue Notation ein:
Definiere für $i=1,\dots, n_j$ den Operator $E_i :X_{j}\to X_j$ durch die Rekursion
\begin{equation*}
E_{k} = (I-P_{j}^k)E_{k-1}
E_i \colonequals (I-P_{j}^i)E_{i-1}
\end{equation*}
mit $E_{0}=I$.
\begin{lemma}\label{helplemmaAssleqmss}
Für alle $k=0,\dots ,K$ gilt
Für alle $k=0,\dots ,n_j$ gilt
\begin{equation*}
I = E_{k} + \sum_{i=1}^{k} P_{j}^iE_{i-1}.
\end{equation*}
......@@ -4864,7 +4889,7 @@ Das folgende Lemma zeigt, dass die multiplikative Methode positiv definit ist.
\begin{equation*}
(R^\textup{add}_{j}x,x) \leq \beta^2 (R_{j}^\textup{mult}x,x)\quad \forall x\in X_{j}
\end{equation*}
mit $\beta$ aus der Überlappungsbedingung~\eqref{eq:ssmcondition1}.
mit der Dämpfung $\eta = 1$, und $\beta$ aus der Überlappungsbedingung~\eqref{eq:ssmcondition1}.
\end{lemma}
\begin{proof}
Der Beweis wurde \cite{arnold1997preconditioning} entnommen.
......@@ -4879,72 +4904,74 @@ Das folgende Lemma zeigt, dass die multiplikative Methode positiv definit ist.
\end{align*}
erhalten wir
\begin{align*}
a(E_{K}x,E_{K}y) = a(x,y) - \sum_{k=1}^{K} a(P_{j}^{k}E_{k-1}x,E_{k-1}y).
a(E_{n_j}x,E_{n_j}y) = a(x,y) - \sum_{k=1}^{n_j} a(P_{j}^{k}E_{k-1}x,E_{k-1}y).
\end{align*}
Mit \eqref{representationMSS} folgt
\begin{equation}\label{msseq}
a(R_{j}^mA_{j}x,y) = \sum_{k=1}^{K} a(P_{j}^{k}E_{k-1}x,E_{k-1}y).
a(\Rmult_j A_{j}x,y) = \sum_{k=1}^{n_j} a(P_{j}^{k}E_{k-1}x,E_{k-1}y).
\end{equation}
Diese Darstellung wollen wir am Ende des Beweises erhalten.
\medskip
Um die Abschätzung zu zeigen, benötigen wir die Gleichung
\begin{equation}\label{removeSomeEs}
P_{j}^kE_{k} = P_{j}^k(I-P_{j}^k)\dots (I-P_{j}^1) = 0.
P_{j}^kE_{k} = P_{j}^k(I-P_{j}^k)\cdots (I-P_{j}^1) = 0.
\end{equation}
Damit erhalten wir
\begin{align}\label{msshelp1}
a(R_{j}^aAx,x)
a(\Radd_j Ax,x)
\stackrela{\eqref{eq:aschwarzrepre}}{=}
\sum_{k=1}^{K} a(P_{j}^kx,x)\\
\sum_{k=1}^{n_j} a(P_{j}^kx,x)\\
%
\stackrela{\text{Lemma~\ref{helplemmaAssleqmss}}}{=}
\sum_{k=1}^{K} a(P_{j}^kx,(E_{k} + \sum_{i=1}^{k} P_{j}^iE_{i-1})x)) \nonumber\\
\sum_{k=1}^{n_j} a(P_{j}^kx,(E_{k} + \sum_{i=1}^{k} P_{j}^iE_{i-1})x)) \nonumber\\
%
&=
\sum_{k=1}^{K} a(P_{j}^kx,E_{k}x) + \sum_{k=1}^{K} a(P_{j}^kx,\sum_{i=1}^{k} P_{j}^iE_{i-1}x)) \nonumber\\
\sum_{k=1}^{n_j} a(P_{j}^kx,E_{k}x) + \sum_{k=1}^{n_j} a(P_{j}^kx,\sum_{i=1}^{k} P_{j}^iE_{i-1}x)) \nonumber\\
%
\stackrela{\eqref{removeSomeEs}}{=}
\sum_{k=1}^{K} a(P_{j}^kx, \underbrace{ P_{j}^kE_{k}}_{=0}x) +\sum_{k=1}^{K}\sum_{i=1}^{k} a(P_{j}^kx, P_{j}^iE_{i-1}x))\nonumber\\
\sum_{k=1}^{n_j} a(P_{j}^kx, \underbrace{ P_{j}^kE_{k}}_{=0}x) +\sum_{k=1}^{n_j}\sum_{i=1}^{k} a(P_{j}^kx, P_{j}^iE_{i-1}x))\nonumber\\
%
&=
\sum_{k=1}^{K}\sum_{i=1}^{k} a(P_{j}^kx, P_{j}^iE_{i-1}x)).\label{helpasleqms1}
\sum_{k=1}^{n_j}\sum_{i=1}^{k} a(P_{j}^kx, P_{j}^iE_{i-1}x)).\label{helpasleqms1}
\end{align}
Mit der Cauchy-Schwarz Ungleichung und Bedingung~\eqref{eq:ssmcondition1} gilt
\begin{align*}
\sum_{k=1}^{K}\sum_{i=1}^{k} a(P_{j}^kx, P_{j}^iE_{i-1}x)
\sum_{k=1}^{n_j}\sum_{i=1}^{k} a(P_{j}^kx, P_{j}^iE_{i-1}x)
&=
a\bigg(\sum_{k=1}^{K}P_{j}^kx, \sum_{i=1}^{k}P_{j}^iE_{i-1}x\bigg) \\
a\bigg(\sum_{k=1}^{n_j}P_{j}^kx, \sum_{i=1}^{k}P_{j}^iE_{i-1}x\bigg) \\
%
\stackrela{\text{Cauchy-Schwarz}}{\leq}
a\bigg(\sum_{k=1}^{K}P_{j}^kx, \sum_{k=1}^{K}P_{j}^kx\bigg)^\frac{1}{2} a\bigg(\sum_{i=1}^{k}P_{j}^iE_{i-1}x, \sum_{i=1}^{k}P_{j}^iE_{i-1}x\bigg)^\frac{1}{2}\\
a\bigg(\sum_{k=1}^{n_j}P_{j}^kx, \sum_{k=1}^{n_j}P_{j}^kx\bigg)^\frac{1}{2} a\bigg(\sum_{i=1}^{k}P_{j}^iE_{i-1}x, \sum_{i=1}^{k}P_{j}^iE_{i-1}x\bigg)^\frac{1}{2}\\
%
\stackrela{\text{Bedingung~\eqref{eq:ssmcondition1}}}{\leq}
\beta a\bigg(\sum_{k=1}^{K}P_{j}^kx,x\bigg)^\frac{1}{2} a\bigg(\sum_{i=1}^{k}P_{j}^iE_{i-1}x,E_{i-1}x\bigg)^\frac{1}{2}.
\beta a\bigg(\sum_{k=1}^{n_j}P_{j}^kx,x\bigg)^\frac{1}{2} a\bigg(\sum_{i=1}^{k}P_{j}^iE_{i-1}x,E_{i-1}x\bigg)^\frac{1}{2}.
\end{align*}
Wir erhalten
\begin{align*}
\sum_{k=1}^{K}aA(P_{j}^kx,x)
\sum_{k=1}^{n_j}a(P_{j}^kx,x)
\stackrela{\eqref{helpasleqms1}}{=}
\sum_{k=1}^{K}\sum_{i=1}^{k} a(P_{j}^kx, P_{j}^iE_{i-1}x)\\
\sum_{k=1}^{n_j}\sum_{i=1}^{k} a(P_{j}^kx, P_{j}^iE_{i-1}x)\\
%
&\leq
\beta a\bigg(\sum_{k=1}^{K}P_{j}^kx,x\bigg)^\frac{1}{2} a\bigg(\sum_{i=1}^{k}P_{j}^iE_{i-1}x,E_{i-1}x\bigg)^\frac{1}{2} \\
\beta a\bigg(\sum_{k=1}^{n_j}P_{j}^kx,x\bigg)^\frac{1}{2} a\bigg(\sum_{i=1}^{k}P_{j}^iE_{i-1}x,E_{i-1}x\bigg)^\frac{1}{2} \\
%
&=
\beta a\bigg(\sum_{k=1}^{K}P_{j}^kx,x\bigg)^\frac{1}{2} \bigg(\sum_{i=1}^{K}a(P_{j}^iE_{i-1}x,E_{i-1}x) \bigg)^\frac{1}{2}.
\beta a\bigg(\sum_{k=1}^{n_j}P_{j}^kx,x\bigg)^\frac{1}{2} \bigg(\sum_{i=1}^{n_j}a(P_{j}^iE_{i-1}x,E_{i-1}x) \bigg)^\frac{1}{2}.
\end{align*}
Schließlich gilt mit \eqref{msseq}
Schließlich gilt mit~\eqref{msseq}
\begin{align}
a(R_{j}^aA_{j}x,x)
a(\Radd_j A_{j}x,x)
\stackrela{\eqref{eq:aschwarzrepre}}{=}
\sum_{k=1}^{K} a(P_{j}^kx,x) \nonumber\\
\sum_{k=1}^{n_j} a(P_{j}^kx,x) \nonumber\\
%
&\leq
\beta^2 \sum_{k=1}^{K} a(P_{j}^kE_{k-1}x,E_{k-1}x) \nonumber\\
\beta^2 \sum_{k=1}^{n_j} a(P_{j}^kE_{k-1}x,E_{k-1}x) \nonumber\\
%
\stackrela{\eqref{msseq}}{=}
\beta^2 a(R_{j}^mA_{j}x,x).
\beta^2 a(\Rmult_j A_{j}x,x).
\end{align}
Da $A_{j}$ invertierbar ist, gilt
\begin{equation*}
......@@ -4963,9 +4990,6 @@ Das folgende Lemma zeigt, dass die multiplikative Methode positiv definit ist.
\begin{proof}
Die Beweisidee wurde aus dem Beweis von Satz 3.2 aus \cite{arnold2000multigrid} entnommen.
Die Symmetrie von $R_{j}^m$ bezüglich $(\cdot,\cdot)$ haben wir in Lemma \ref{smsssym} gezeigt.
Das $R_{j}^m$ positiv definit ist, folgt aus Lemma \ref{asleqms} und Satz \ref{satzAsspossyminv}.
Die Invertierbarkeit folgt dann analog zum Beweis von Satz \ref{satzAsspossyminv}.
Bedingung~\eqref{eq:scondition1} folgt aus \eqref{representationMSS} mit $y=x$:
\begin{equation*}
......@@ -4975,24 +4999,24 @@ Das folgende Lemma zeigt, dass die multiplikative Methode positiv definit ist.
\end{equation*}
Sei $x\in X_{j}$ mit $j\in \set{1,\dots ,J}$ beliebig.
Definiere dann $v = (I-P_{j-1})x$ nutze die Zerlegung $v = \sum_{k=1}^{K} v_{k}$ mit $v_{k}\in X_{j}^k$.
Definiere dann $v = (I-P_{j-1})x$ nutze die Zerlegung $v = \sum_{k=1}^{n_j} v_{k}$ mit $v_{k}\in X_{j}^k$.
Dann gilt.
\begin{align*}
((R_{j}^m)^{-1}v,v)
((\Rmult_j)^{-1}v,v)
&=
\sum_{k=1}^{K} a(A_{j}^{-1}(R_{j}^m)^{-1}v,v_{k}) \\
\sum_{k=1}^{n_j} a(A_{j}^{-1}(\Rmult_j)^{-1}v,v_{k}) \\
&=
\sum_{k=1}^{K} a(P_{j}^kA_{j}^{-1}(R_{j}^m)^{-1}v,v_{k}) \\
\sum_{k=1}^{n_j} a(P_{j}^kA_{j}^{-1}(\Rmult_j)^{-1}v,v_{k}) \\
\stackrela{\text{Cauchy-Schwarz}}{\leq}
\sum_{k=1}^{K} a(P_{j}^kA_{j}^{-1}(R_{j}^m)^{-1}v,A_{j}^{-1}(R_{j}^m)^{-1}v)^\frac{1}{2} a(v_{k},v_{k})^\frac{1}{2}\\
\sum_{k=1}^{n_j} a(P_{j}^kA_{j}^{-1}(\Rmult_j)^{-1}v,A_{j}^{-1}(\Rmult_j)^{-1}v)^\frac{1}{2} a(v_{k},v_{k})^\frac{1}{2}\\
\stackrela{A \text{ s.p.d}}{\leq}
(\sum_{k=1}^{K} a(P_{j}^kA_{j}^{-1}(R_{j}^m)^{-1}v,A_{j}^{-1}(R_{j}^m)^{-1}v))^\frac{1}{2} (\sum_{k=1}^{K}a(v_{k},v_{k}) )^\frac{1}{2}\\
(\sum_{k=1}^{n_j} a(P_{j}^kA_{j}^{-1}(\Rmult_j)^{-1}v,A_{j}^{-1}(\Rmult_j)^{-1}v))^\frac{1}{2} (\sum_{k=1}^{n_j}a(v_{k},v_{k}) )^\frac{1}{2}\\
\stackrela{\text{Bedingung }\eqref{eq:ssmcondition2}}{\leq}
\sqrt{\gamma} \Bigg( a( \underbrace{\sum_{k=1}^{K} P_{j}^kA_{j}^{-1}}_{=R_{j}^a}(R_{j}^m)^{-1}v,A_{j}^{-1}(R_{j}^m)^{-1}v)\Bigg)^\frac{1}{2} a(v,v)^\frac{1}{2}\\
\sqrt{\gamma} \Bigg( a( \underbrace{\sum_{k=1}^{n_j} P_{j}^kA_{j}^{-1}}_{=\Radd_j}(\Rmult_j)^{-1}v,A_{j}^{-1}(\Rmult_j)^{-1}v)\Bigg)^\frac{1}{2} a(v,v)^\frac{1}{2}\\
&=
\sqrt{\gamma} ( ( R_{j}^a(R_{j}^m)^{-1}v,(R_{j}^m)^{-1}v))^\frac{1}{2} A(v,v)^\frac{1}{2}\\
\sqrt{\gamma} ( ( \Radd_j(\Rmult_j)^{-1}v,(\Rmult_j)^{-1}v))^\frac{1}{2} A(v,v)^\frac{1}{2}\\
\stackrela{\text{Lemma~\ref{asleqms}}}{\leq}
\sqrt{\gamma} \beta \ ( v,(R_{j}^m)^{-1}v)^\frac{1}{2} a(v,v)^\frac{1}{2}.
\sqrt{\gamma} \beta \ ( v,(\Rmult_j)^{-1}v)^\frac{1}{2} a(v,v)^\frac{1}{2}.
\end{align*}
Da $x$ und die Zerlegung von $v$ beliebig waren, folgt Bedingung~\eqref{eq:scondition2}.
\end{proof}
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment