From 9e15866ed73fd9a1dc3321000166442eb599d1fc Mon Sep 17 00:00:00 2001 From: Oliver Sander <oliver.sander@tu-dresden.de> Date: Mon, 31 May 2021 14:24:37 +0200 Subject: [PATCH] Verbessere Details im Mehrgitter-Konvergenzsatz --- skript-mehrgitter-sander.tex | 176 ++++++++++++++++++++--------------- 1 file changed, 100 insertions(+), 76 deletions(-) diff --git a/skript-mehrgitter-sander.tex b/skript-mehrgitter-sander.tex index 9cf077b..98bac37 100644 --- a/skript-mehrgitter-sander.tex +++ b/skript-mehrgitter-sander.tex @@ -1415,6 +1415,9 @@ von $V_h^\text{fein} = V_h$ ist. \end{equation*} Man nennt $P$ den \emph{Prolongationsoperator}. + \todo[inline]{Später ist $P^T$ die $L^2$-Projektion und wird $Q$ genannt. + Vielleicht können wir das hier schon vorbereiten?} + \item Da in diesem Beispiel die Räume geschachtelt sind nehmen wir einfach die kanonische Injektion: @@ -4188,8 +4191,8 @@ Da die $X_i$ geschachtelt sind haben die Projektionsoperatoren einige besondere \end{equation} \end{lemma} -Anschaulich besagt das Lemma, dass eine Projektion auf einen kleinen Raum alle Projektionen -überdeckt, die eventuell vorher ausgeführt wurden. +Anschaulich besagt das Lemma, dass es egal ist ob ich vor oder nach einer Projektion +noch auf einen Übermenge projiziere. \begin{proof} Seien $x,y\in X$. @@ -4561,9 +4564,8 @@ von Schwarz die Bedingungen aus Satz~\ref{thm:absMGconvergence} erfüllen. Dafür zerlegen wir die endlichdimensionalen Unterräume $X_j$ wieder in Unterräume $X_{j}^i$ für $i=1,\dots, n_j$, so dass \begin{equation*} - X_j = \sum_{i=1}^{n_j} X_j^i + X_j = \sum_{i=1}^{n_j} X_j^i. \end{equation*} -gilt. Dann kann ein beliebiges $x\in X_{j}$ durch \begin{equation*} @@ -4572,17 +4574,17 @@ Dann kann ein beliebiges $x\in X_{j}$ durch mit $x_i\in X_{j}^i$, beschrieben werden. Diese Zerlegung hängt von den Räumen $X_{j}^i$ ab und ist im Allgemeinen nicht eindeutig. +Wir nutzen die Operatoren $A_{j},P_{j},Q_{j}$ für die Teilräume $X_j^i$ +und bezeichnen sie mit $A_{j,i},P_{j}^i$ und $Q_{j}^i$. + Im Hinterkopf haben wir dabei wieder Zerlegungen gemäß der Knotenbasis, aber es kommen später auch noch andere. -\medskip - -Wir nutzen die Operatoren $A_{j},P_{j},Q_{j}$ für die Teilräume $X_j^i$ -und bezeichnen sie mit $A_{j,i},P_{j}^i$ und $Q_{j}^i$. +\bigskip Die Güte der Zerlegungen $\{X_j^i\}$ macht sich wieder an zwei Konstanten fest. -Dies sind fast die Konstanten $C_0$ und $\rho(\mathcal{E})$ aus den +Diese sind verwandt mit den Konstanten $C_0$ und $\rho(\mathcal{E})$ aus den Definitionen~\ref{def:TRK_annahme_1} bzw.~\ref{def:TRK_annahme_2}, aber es gibt kleine Unterschiede. @@ -4620,10 +4622,22 @@ $x$ aus $(I-P_{j-1})X_j$. \end{equation} gilt. \end{definition} -\todo[inline]{Wie verhält sich diese Definition zu~\ref{def:TRK_annahme_2}?} -Bedingung~\eqref{eq:ssmcondition1} ist ein Spezialfall der Cauchy-Schwarz Ungleichung. -Sie folgt, wenn für jedes $k\in \set{1,\dots ,K}$ die Anzahl der Unterräume $X_{j}^{k'}$ mit $P_{j}^kx^{k'}\neq 0$, für alle $x^{k'}\in X_{j}^{k'}$, beschränkt ist. -Anschaulich gesprochen, überlappen sich die Unterräume $X_{j}^k$ kaum. +Genau wie Definition~\ref{def:TRK_annahme_2} wird hier verlangt dass +die Teilräume \glqq möglichst senkrecht\grqq{} zueinander stehen. + +Falls~\eqref{eq:ssmcondition1} für alle $x,y \in X_j$ gilt, so gilt es insbesondere +für $x \in X_n$, $y \in X_m$ (d.h.\ $x$ und $y$ sind in jeweils einem der Teilräume +enthalten), und dann folgt +\begin{align*} + a(x,y) + & = + \sum_{i,l=1}^{n_j} a(x^i, x^l) \\ + & \le + \beta \bigg[ \sum_{i=1}^{n_j} a(x^i,x^i)\bigg]^{\frac{1}{2}} \bigg[ \sum_{i=1}^{n_j} a(y^i,y^i)\bigg]^\frac{1}{2} + = + \beta a(x^n, x^n)^\frac{1}{2} a(x^m, x^m)^\frac{1}{2}, +\end{align*} +und das ist Definition~\ref{def:TRK_annahme_2}. \subsubsection{Die additive Methode} @@ -4646,7 +4660,7 @@ Wegen Lemma~\ref{lem:QjAleqAjPj} ist das äquivalent zur bisherigen Definition \begin{theorem}\label{satzAsspossyminv} Die additive Methode von Schwarz $\Radd_j$ ist positiv definit, symmetrisch bzgl. $(\cdot,\cdot)$ und invertierbar. \end{theorem} -\todo[inline]{Können wir den Beweis in ein früheres Kapitel schieben?} +\todo[inline]{Dieses Resultat wurde bereits weitestgehend bewiesen, und ist hier nur Wiederholung.} \begin{proof} Sei $x\in X_{j}\backslash\set{0}$. Mit der Definition von $R_{j}$ in \eqref{defsschwarz} und da $A_{j,k}^{-1}$ positiv definit ist, folgt \begin{equation*} @@ -4670,33 +4684,34 @@ Wegen Lemma~\ref{lem:QjAleqAjPj} ist das äquivalent zur bisherigen Definition \begin{theorem}\label{konvergenceAdditiveSmoother} Seien die Bedingungen \eqref{eq:ssmcondition2} und \eqref{eq:ssmcondition1} erfüllt und sei die Skalierungskonstante $\eta <\frac{1}{\beta}$. - Dann erfüllt die additive Methode von Schwarz $\eta \Radd_j = R_{j}$ die Bedingungen von Satz~\ref{thm:absMGconvergence} mit $\alpha = \frac{\gamma}{\eta}$. + Dann erfüllt die additive Methode von Schwarz $\Radd_j = \eta R_{j}$ die Bedingungen von Satz~\ref{thm:absMGconvergence} mit $\alpha = \frac{\gamma}{\eta}$. \end{theorem} Für den Beweis brauchen wir wieder Hilfssatz~\ref{lem:aPinvuu_has_minimal_energy}. Zur Erinnerung: Dieser besagt: \begin{lemma}\label{smootherinveqinfsum} - Für die additive Methode von Schwarz mit $\eta=1$ gilt für jedes $j=1,\dots ,J$ + Für die additive Methode von Schwarz gilt für jedes $j=1,\dots ,J$ \begin{equation*} - ((\Radd_j)^{-1}x,x) + (R_j^{-1}x,x) = \inf_{\substack{x= \sum_{i=1}^{n_j} x^i\\x^i\in X_{j}^i }} \sum_{i=1}^{n_j} a(x^i,x^i) \quad \forall x\in X_{j}. \end{equation*} \end{lemma} \emph{Achtung:} In Hilfssatz~\ref{lem:aPinvuu_has_minimal_energy} steht auf der linken Seite -$a(P^{-1}x,x)$ statt $((\Radd_j)^{-1}x,x)$. Das macht aber keinen Unterschied, denn +$a(P^{-1}x,x)$ statt $(R_j^{-1}x,x)$. Das macht aber keinen Unterschied, denn \begin{equation*} - ((\Radd_j)^{-1}x,x) + (R_j^{-1}x,x) = - (A_j (\Radd_j A_j)^{-1}x,x) + (A_j (R_j A_j)^{-1}x,x) = - a((\Radd_j A_j)^{-1}x,x) + a((R_j A_j)^{-1}x,x) = a(P^{-1}x,x). \end{equation*} +\bigskip \begin{proof}[Beweis von Satz \ref{konvergenceAdditiveSmoother}] Der Beweis basiert auf \cite{arnold2000multigrid}, Kapitel 3. @@ -4705,11 +4720,9 @@ $a(P^{-1}x,x)$ statt $((\Radd_j)^{-1}x,x)$. Das macht aber keinen Unterschied, \begin{equation*} ((\Radd_j)^{-1} x,x) \le \alpha a(x,x) \qquad - \forall x \in (I - P_{j-1})X_j + \forall x \in (I - P_{j-1})X_j. \end{equation*} - - Sei $x\in X_{j}$ beliebig und gelte Bedingung~\eqref{eq:ssmcondition2}. Dann gilt \begin{align*} @@ -4736,7 +4749,7 @@ $a(P^{-1}x,x)$ statt $((\Radd_j)^{-1}x,x)$. Das macht aber keinen Unterschied, \end{equation*} Sei $x\in X_{j}$. Dann gilt \begin{align*} - a(R_{j}A_{j}x,x) + a(\Radd_j A_{j}x,x) \stackrela{\text{Def.\ $R_{j}$}}{=} \eta \sum_{i=1}^{n_j} a( A_{j,i}^{-1}Q_{j}^i A_{j}x,x) \\ % @@ -4751,15 +4764,15 @@ $a(P^{-1}x,x)$ statt $((\Radd_j)^{-1}x,x)$. Das macht aber keinen Unterschied, \end{align*} Wir nutzen Bedingung~\eqref{eq:ssmcondition1} mit $x^k= P^k_{j}x\in X_{j}^k$ und $y^l = P^l_{j}x\in X_{j}^l$ und erhalten \begin{align*} - a(R_{j}A_{j}x,x) + a(\Radd_jA_{j}x,x) &\leq - \eta \beta [ \sum_{k=1}^{K} a( P_{j}^kx,P_{j}^kx)]^\frac{1}{2} [\sum_{k=1}^{K} a( P_{j}^kx,P_{j}^kx)]^\frac{1}{2} \\ + \eta \beta [ \sum_{i=1}^{n_j} a( P_{j}^i x,P_{j}^ix)]^\frac{1}{2} [\sum_{l=1}^{n_j} a( P_{j}^l x,P_j^l x)]^\frac{1}{2} \\ % & = - \eta \beta \sum_{k=1}^{K} a( P_{j}^kx,P_{j}^kx)\\ + \eta \beta \sum_{i=1}^{n_j} a( P_j^i x,P_j^ix)\\ % & = - \eta \beta \sum_{k=1}^{K} a( x,P_{j}^kx)\\ + \eta \beta \sum_{i=1}^{n_j} a( x,P_j^i x)\\ % & = \eta \beta a(x,x). @@ -4811,27 +4824,39 @@ Die Rückwärtsiteration ist nötig um ein symmetrisches Verfahren zu erhalten. & = a(x, (I-\Rmult_j A_{j})y). \end{align} - Es ist also $I-\Rmult_j A_{j}$ selbstadjungiert bzgl.\ $a(\cdot,\cdot)$. - Dann ergibt sich - \begin{equation*} - a(\Rmult_j A_{j}x,y) = a(x,\Rmult_j A_{j}y). - \end{equation*} + Es ist also $I-\Rmult_j A_{j}$ selbstadjungiert bzgl.\ $a(\cdot,\cdot)$, + und ebenso $\Rmult_j A_{j}$. + Daraus folgt - \begin{equation*} - (\Rmult_j A_{j}x, A_j y) = a(A_j x, \Rmult_j A_{j}y). - \end{equation*} - Die Behauptung folgt nun, da der Operator $A_{j}$ invertierbar ist. + \begin{align*} + (\Rmult_j x,y) + & = + (\Rmult_j A_j\bar{x}, A_j\bar{y}) + = + a(\Rmult_j A_j\bar{x}, \bar{y}) \\ + & = + a(\bar{x}, \Rmult_j A_j\bar{y}) + = + (A_j \bar{x}, \Rmult_j A_j\bar{y}) + = + (x, \Rmult_j y). + \qedhere + \end{align*} \end{proof} -Definiere für $k=1,\dots ,K$ den Operator $E_{k}:X_{j}\to X_j$ durch die Rekursion +\bigskip + +Im Platz zu sparen führen wir neue Notation ein: + +Definiere für $i=1,\dots, n_j$ den Operator $E_i :X_{j}\to X_j$ durch die Rekursion \begin{equation*} - E_{k} = (I-P_{j}^k)E_{k-1} + E_i \colonequals (I-P_{j}^i)E_{i-1} \end{equation*} mit $E_{0}=I$. \begin{lemma}\label{helplemmaAssleqmss} - Für alle $k=0,\dots ,K$ gilt + Für alle $k=0,\dots ,n_j$ gilt \begin{equation*} I = E_{k} + \sum_{i=1}^{k} P_{j}^iE_{i-1}. \end{equation*} @@ -4864,7 +4889,7 @@ Das folgende Lemma zeigt, dass die multiplikative Methode positiv definit ist. \begin{equation*} (R^\textup{add}_{j}x,x) \leq \beta^2 (R_{j}^\textup{mult}x,x)\quad \forall x\in X_{j} \end{equation*} - mit $\beta$ aus der Überlappungsbedingung~\eqref{eq:ssmcondition1}. + mit der Dämpfung $\eta = 1$, und $\beta$ aus der Überlappungsbedingung~\eqref{eq:ssmcondition1}. \end{lemma} \begin{proof} Der Beweis wurde \cite{arnold1997preconditioning} entnommen. @@ -4879,72 +4904,74 @@ Das folgende Lemma zeigt, dass die multiplikative Methode positiv definit ist. \end{align*} erhalten wir \begin{align*} - a(E_{K}x,E_{K}y) = a(x,y) - \sum_{k=1}^{K} a(P_{j}^{k}E_{k-1}x,E_{k-1}y). + a(E_{n_j}x,E_{n_j}y) = a(x,y) - \sum_{k=1}^{n_j} a(P_{j}^{k}E_{k-1}x,E_{k-1}y). \end{align*} Mit \eqref{representationMSS} folgt \begin{equation}\label{msseq} - a(R_{j}^mA_{j}x,y) = \sum_{k=1}^{K} a(P_{j}^{k}E_{k-1}x,E_{k-1}y). + a(\Rmult_j A_{j}x,y) = \sum_{k=1}^{n_j} a(P_{j}^{k}E_{k-1}x,E_{k-1}y). \end{equation} Diese Darstellung wollen wir am Ende des Beweises erhalten. + \medskip + Um die Abschätzung zu zeigen, benötigen wir die Gleichung \begin{equation}\label{removeSomeEs} - P_{j}^kE_{k} = P_{j}^k(I-P_{j}^k)\dots (I-P_{j}^1) = 0. + P_{j}^kE_{k} = P_{j}^k(I-P_{j}^k)\cdots (I-P_{j}^1) = 0. \end{equation} Damit erhalten wir \begin{align}\label{msshelp1} - a(R_{j}^aAx,x) + a(\Radd_j Ax,x) \stackrela{\eqref{eq:aschwarzrepre}}{=} - \sum_{k=1}^{K} a(P_{j}^kx,x)\\ + \sum_{k=1}^{n_j} a(P_{j}^kx,x)\\ % \stackrela{\text{Lemma~\ref{helplemmaAssleqmss}}}{=} - \sum_{k=1}^{K} a(P_{j}^kx,(E_{k} + \sum_{i=1}^{k} P_{j}^iE_{i-1})x)) \nonumber\\ + \sum_{k=1}^{n_j} a(P_{j}^kx,(E_{k} + \sum_{i=1}^{k} P_{j}^iE_{i-1})x)) \nonumber\\ % &= - \sum_{k=1}^{K} a(P_{j}^kx,E_{k}x) + \sum_{k=1}^{K} a(P_{j}^kx,\sum_{i=1}^{k} P_{j}^iE_{i-1}x)) \nonumber\\ + \sum_{k=1}^{n_j} a(P_{j}^kx,E_{k}x) + \sum_{k=1}^{n_j} a(P_{j}^kx,\sum_{i=1}^{k} P_{j}^iE_{i-1}x)) \nonumber\\ % \stackrela{\eqref{removeSomeEs}}{=} - \sum_{k=1}^{K} a(P_{j}^kx, \underbrace{ P_{j}^kE_{k}}_{=0}x) +\sum_{k=1}^{K}\sum_{i=1}^{k} a(P_{j}^kx, P_{j}^iE_{i-1}x))\nonumber\\ + \sum_{k=1}^{n_j} a(P_{j}^kx, \underbrace{ P_{j}^kE_{k}}_{=0}x) +\sum_{k=1}^{n_j}\sum_{i=1}^{k} a(P_{j}^kx, P_{j}^iE_{i-1}x))\nonumber\\ % &= - \sum_{k=1}^{K}\sum_{i=1}^{k} a(P_{j}^kx, P_{j}^iE_{i-1}x)).\label{helpasleqms1} + \sum_{k=1}^{n_j}\sum_{i=1}^{k} a(P_{j}^kx, P_{j}^iE_{i-1}x)).\label{helpasleqms1} \end{align} Mit der Cauchy-Schwarz Ungleichung und Bedingung~\eqref{eq:ssmcondition1} gilt \begin{align*} - \sum_{k=1}^{K}\sum_{i=1}^{k} a(P_{j}^kx, P_{j}^iE_{i-1}x) + \sum_{k=1}^{n_j}\sum_{i=1}^{k} a(P_{j}^kx, P_{j}^iE_{i-1}x) &= - a\bigg(\sum_{k=1}^{K}P_{j}^kx, \sum_{i=1}^{k}P_{j}^iE_{i-1}x\bigg) \\ + a\bigg(\sum_{k=1}^{n_j}P_{j}^kx, \sum_{i=1}^{k}P_{j}^iE_{i-1}x\bigg) \\ % \stackrela{\text{Cauchy-Schwarz}}{\leq} - a\bigg(\sum_{k=1}^{K}P_{j}^kx, \sum_{k=1}^{K}P_{j}^kx\bigg)^\frac{1}{2} a\bigg(\sum_{i=1}^{k}P_{j}^iE_{i-1}x, \sum_{i=1}^{k}P_{j}^iE_{i-1}x\bigg)^\frac{1}{2}\\ + a\bigg(\sum_{k=1}^{n_j}P_{j}^kx, \sum_{k=1}^{n_j}P_{j}^kx\bigg)^\frac{1}{2} a\bigg(\sum_{i=1}^{k}P_{j}^iE_{i-1}x, \sum_{i=1}^{k}P_{j}^iE_{i-1}x\bigg)^\frac{1}{2}\\ % \stackrela{\text{Bedingung~\eqref{eq:ssmcondition1}}}{\leq} - \beta a\bigg(\sum_{k=1}^{K}P_{j}^kx,x\bigg)^\frac{1}{2} a\bigg(\sum_{i=1}^{k}P_{j}^iE_{i-1}x,E_{i-1}x\bigg)^\frac{1}{2}. + \beta a\bigg(\sum_{k=1}^{n_j}P_{j}^kx,x\bigg)^\frac{1}{2} a\bigg(\sum_{i=1}^{k}P_{j}^iE_{i-1}x,E_{i-1}x\bigg)^\frac{1}{2}. \end{align*} Wir erhalten \begin{align*} - \sum_{k=1}^{K}aA(P_{j}^kx,x) + \sum_{k=1}^{n_j}a(P_{j}^kx,x) \stackrela{\eqref{helpasleqms1}}{=} - \sum_{k=1}^{K}\sum_{i=1}^{k} a(P_{j}^kx, P_{j}^iE_{i-1}x)\\ + \sum_{k=1}^{n_j}\sum_{i=1}^{k} a(P_{j}^kx, P_{j}^iE_{i-1}x)\\ % &\leq - \beta a\bigg(\sum_{k=1}^{K}P_{j}^kx,x\bigg)^\frac{1}{2} a\bigg(\sum_{i=1}^{k}P_{j}^iE_{i-1}x,E_{i-1}x\bigg)^\frac{1}{2} \\ + \beta a\bigg(\sum_{k=1}^{n_j}P_{j}^kx,x\bigg)^\frac{1}{2} a\bigg(\sum_{i=1}^{k}P_{j}^iE_{i-1}x,E_{i-1}x\bigg)^\frac{1}{2} \\ % &= - \beta a\bigg(\sum_{k=1}^{K}P_{j}^kx,x\bigg)^\frac{1}{2} \bigg(\sum_{i=1}^{K}a(P_{j}^iE_{i-1}x,E_{i-1}x) \bigg)^\frac{1}{2}. + \beta a\bigg(\sum_{k=1}^{n_j}P_{j}^kx,x\bigg)^\frac{1}{2} \bigg(\sum_{i=1}^{n_j}a(P_{j}^iE_{i-1}x,E_{i-1}x) \bigg)^\frac{1}{2}. \end{align*} - Schließlich gilt mit \eqref{msseq} + Schließlich gilt mit~\eqref{msseq} \begin{align} - a(R_{j}^aA_{j}x,x) + a(\Radd_j A_{j}x,x) \stackrela{\eqref{eq:aschwarzrepre}}{=} - \sum_{k=1}^{K} a(P_{j}^kx,x) \nonumber\\ + \sum_{k=1}^{n_j} a(P_{j}^kx,x) \nonumber\\ % &\leq - \beta^2 \sum_{k=1}^{K} a(P_{j}^kE_{k-1}x,E_{k-1}x) \nonumber\\ + \beta^2 \sum_{k=1}^{n_j} a(P_{j}^kE_{k-1}x,E_{k-1}x) \nonumber\\ % \stackrela{\eqref{msseq}}{=} - \beta^2 a(R_{j}^mA_{j}x,x). + \beta^2 a(\Rmult_j A_{j}x,x). \end{align} Da $A_{j}$ invertierbar ist, gilt \begin{equation*} @@ -4963,9 +4990,6 @@ Das folgende Lemma zeigt, dass die multiplikative Methode positiv definit ist. \begin{proof} Die Beweisidee wurde aus dem Beweis von Satz 3.2 aus \cite{arnold2000multigrid} entnommen. - Die Symmetrie von $R_{j}^m$ bezüglich $(\cdot,\cdot)$ haben wir in Lemma \ref{smsssym} gezeigt. - Das $R_{j}^m$ positiv definit ist, folgt aus Lemma \ref{asleqms} und Satz \ref{satzAsspossyminv}. - Die Invertierbarkeit folgt dann analog zum Beweis von Satz \ref{satzAsspossyminv}. Bedingung~\eqref{eq:scondition1} folgt aus \eqref{representationMSS} mit $y=x$: \begin{equation*} @@ -4975,24 +4999,24 @@ Das folgende Lemma zeigt, dass die multiplikative Methode positiv definit ist. \end{equation*} Sei $x\in X_{j}$ mit $j\in \set{1,\dots ,J}$ beliebig. - Definiere dann $v = (I-P_{j-1})x$ nutze die Zerlegung $v = \sum_{k=1}^{K} v_{k}$ mit $v_{k}\in X_{j}^k$. + Definiere dann $v = (I-P_{j-1})x$ nutze die Zerlegung $v = \sum_{k=1}^{n_j} v_{k}$ mit $v_{k}\in X_{j}^k$. Dann gilt. \begin{align*} - ((R_{j}^m)^{-1}v,v) + ((\Rmult_j)^{-1}v,v) &= - \sum_{k=1}^{K} a(A_{j}^{-1}(R_{j}^m)^{-1}v,v_{k}) \\ + \sum_{k=1}^{n_j} a(A_{j}^{-1}(\Rmult_j)^{-1}v,v_{k}) \\ &= - \sum_{k=1}^{K} a(P_{j}^kA_{j}^{-1}(R_{j}^m)^{-1}v,v_{k}) \\ + \sum_{k=1}^{n_j} a(P_{j}^kA_{j}^{-1}(\Rmult_j)^{-1}v,v_{k}) \\ \stackrela{\text{Cauchy-Schwarz}}{\leq} - \sum_{k=1}^{K} a(P_{j}^kA_{j}^{-1}(R_{j}^m)^{-1}v,A_{j}^{-1}(R_{j}^m)^{-1}v)^\frac{1}{2} a(v_{k},v_{k})^\frac{1}{2}\\ + \sum_{k=1}^{n_j} a(P_{j}^kA_{j}^{-1}(\Rmult_j)^{-1}v,A_{j}^{-1}(\Rmult_j)^{-1}v)^\frac{1}{2} a(v_{k},v_{k})^\frac{1}{2}\\ \stackrela{A \text{ s.p.d}}{\leq} - (\sum_{k=1}^{K} a(P_{j}^kA_{j}^{-1}(R_{j}^m)^{-1}v,A_{j}^{-1}(R_{j}^m)^{-1}v))^\frac{1}{2} (\sum_{k=1}^{K}a(v_{k},v_{k}) )^\frac{1}{2}\\ + (\sum_{k=1}^{n_j} a(P_{j}^kA_{j}^{-1}(\Rmult_j)^{-1}v,A_{j}^{-1}(\Rmult_j)^{-1}v))^\frac{1}{2} (\sum_{k=1}^{n_j}a(v_{k},v_{k}) )^\frac{1}{2}\\ \stackrela{\text{Bedingung }\eqref{eq:ssmcondition2}}{\leq} - \sqrt{\gamma} \Bigg( a( \underbrace{\sum_{k=1}^{K} P_{j}^kA_{j}^{-1}}_{=R_{j}^a}(R_{j}^m)^{-1}v,A_{j}^{-1}(R_{j}^m)^{-1}v)\Bigg)^\frac{1}{2} a(v,v)^\frac{1}{2}\\ + \sqrt{\gamma} \Bigg( a( \underbrace{\sum_{k=1}^{n_j} P_{j}^kA_{j}^{-1}}_{=\Radd_j}(\Rmult_j)^{-1}v,A_{j}^{-1}(\Rmult_j)^{-1}v)\Bigg)^\frac{1}{2} a(v,v)^\frac{1}{2}\\ &= - \sqrt{\gamma} ( ( R_{j}^a(R_{j}^m)^{-1}v,(R_{j}^m)^{-1}v))^\frac{1}{2} A(v,v)^\frac{1}{2}\\ + \sqrt{\gamma} ( ( \Radd_j(\Rmult_j)^{-1}v,(\Rmult_j)^{-1}v))^\frac{1}{2} A(v,v)^\frac{1}{2}\\ \stackrela{\text{Lemma~\ref{asleqms}}}{\leq} - \sqrt{\gamma} \beta \ ( v,(R_{j}^m)^{-1}v)^\frac{1}{2} a(v,v)^\frac{1}{2}. + \sqrt{\gamma} \beta \ ( v,(\Rmult_j)^{-1}v)^\frac{1}{2} a(v,v)^\frac{1}{2}. \end{align*} Da $x$ und die Zerlegung von $v$ beliebig waren, folgt Bedingung~\eqref{eq:scondition2}. \end{proof} -- GitLab