From 9e15866ed73fd9a1dc3321000166442eb599d1fc Mon Sep 17 00:00:00 2001
From: Oliver Sander <oliver.sander@tu-dresden.de>
Date: Mon, 31 May 2021 14:24:37 +0200
Subject: [PATCH] Verbessere Details im Mehrgitter-Konvergenzsatz

---
 skript-mehrgitter-sander.tex | 176 ++++++++++++++++++++---------------
 1 file changed, 100 insertions(+), 76 deletions(-)

diff --git a/skript-mehrgitter-sander.tex b/skript-mehrgitter-sander.tex
index 9cf077b..98bac37 100644
--- a/skript-mehrgitter-sander.tex
+++ b/skript-mehrgitter-sander.tex
@@ -1415,6 +1415,9 @@ von $V_h^\text{fein} = V_h$ ist.
     \end{equation*}
   Man nennt $P$ den \emph{Prolongationsoperator}.
 
+ \todo[inline]{Später ist $P^T$ die $L^2$-Projektion und wird $Q$ genannt.
+   Vielleicht können wir das hier schon vorbereiten?}
+
  \item Da in diesem Beispiel die Räume geschachtelt sind nehmen wir einfach
   die kanonische Injektion:
 
@@ -4188,8 +4191,8 @@ Da die $X_i$ geschachtelt sind haben die Projektionsoperatoren einige besondere
   \end{equation}
 \end{lemma}
 
-Anschaulich besagt das Lemma, dass eine Projektion auf einen kleinen Raum alle Projektionen
-überdeckt, die eventuell vorher ausgeführt wurden.
+Anschaulich besagt das Lemma, dass es egal ist ob ich vor oder nach einer Projektion
+noch auf einen Ãœbermenge projiziere.
 
 \begin{proof}
   Seien $x,y\in X$.
@@ -4561,9 +4564,8 @@ von Schwarz die Bedingungen aus Satz~\ref{thm:absMGconvergence} erfüllen.
 Dafür zerlegen wir die endlichdimensionalen Unterräume $X_j$ wieder in Unterräume $X_{j}^i$
 für $i=1,\dots, n_j$, so dass
 \begin{equation*}
-  X_j = \sum_{i=1}^{n_j} X_j^i
+  X_j = \sum_{i=1}^{n_j} X_j^i.
 \end{equation*}
-gilt.
 
 Dann kann ein beliebiges $x\in X_{j}$ durch
 \begin{equation*}
@@ -4572,17 +4574,17 @@ Dann kann ein beliebiges $x\in X_{j}$ durch
 mit $x_i\in X_{j}^i$, beschrieben werden.
 Diese Zerlegung hängt von den Räumen $X_{j}^i$ ab und ist im Allgemeinen nicht eindeutig.
 
+Wir nutzen die Operatoren $A_{j},P_{j},Q_{j}$ für die Teilräume $X_j^i$
+und bezeichnen sie mit $A_{j,i},P_{j}^i$ und $Q_{j}^i$.
+
 Im Hinterkopf haben wir dabei wieder Zerlegungen gemäß der Knotenbasis, aber es kommen
 später auch noch andere.
 
-\medskip
-
-Wir nutzen die Operatoren $A_{j},P_{j},Q_{j}$ für die Teilräume $X_j^i$
-und bezeichnen sie mit $A_{j,i},P_{j}^i$ und $Q_{j}^i$.
+\bigskip
 
 Die Güte der Zerlegungen $\{X_j^i\}$ macht sich wieder an zwei Konstanten fest.
 
-Dies sind fast die Konstanten $C_0$ und $\rho(\mathcal{E})$ aus den
+Diese sind verwandt mit den Konstanten $C_0$ und $\rho(\mathcal{E})$ aus den
 Definitionen~\ref{def:TRK_annahme_1} bzw.~\ref{def:TRK_annahme_2}, aber es gibt
 kleine Unterschiede.
 
@@ -4620,10 +4622,22 @@ $x$ aus $(I-P_{j-1})X_j$.
  \end{equation}
  gilt.
 \end{definition}
-\todo[inline]{Wie verhält sich diese Definition zu~\ref{def:TRK_annahme_2}?}
-Bedingung~\eqref{eq:ssmcondition1} ist ein Spezialfall der Cauchy-Schwarz Ungleichung.
-Sie folgt, wenn für jedes $k\in \set{1,\dots ,K}$ die Anzahl der Unterräume $X_{j}^{k'}$ mit $P_{j}^kx^{k'}\neq 0$, für alle $x^{k'}\in X_{j}^{k'}$, beschränkt ist.
-Anschaulich gesprochen, überlappen sich die Unterräume $X_{j}^k$ kaum.
+Genau wie Definition~\ref{def:TRK_annahme_2} wird hier verlangt dass
+die Teilräume \glqq möglichst senkrecht\grqq{} zueinander stehen.
+
+Falls~\eqref{eq:ssmcondition1} für alle $x,y \in X_j$ gilt, so gilt es insbesondere
+für $x \in X_n$, $y \in X_m$ (d.h.\ $x$ und $y$ sind in jeweils einem der Teilräume
+enthalten), und dann folgt
+\begin{align*}
+ a(x,y)
+ & =
+ \sum_{i,l=1}^{n_j} a(x^i, x^l) \\
+ & \le
+ \beta \bigg[ \sum_{i=1}^{n_j} a(x^i,x^i)\bigg]^{\frac{1}{2}} \bigg[ \sum_{i=1}^{n_j} a(y^i,y^i)\bigg]^\frac{1}{2}
+ =
+ \beta a(x^n, x^n)^\frac{1}{2} a(x^m, x^m)^\frac{1}{2},
+\end{align*}
+und das ist Definition~\ref{def:TRK_annahme_2}.
 
 \subsubsection{Die additive Methode}
 
@@ -4646,7 +4660,7 @@ Wegen Lemma~\ref{lem:QjAleqAjPj} ist das äquivalent zur bisherigen Definition
 \begin{theorem}\label{satzAsspossyminv}
   Die additive Methode von Schwarz $\Radd_j$ ist positiv definit, symmetrisch bzgl. $(\cdot,\cdot)$ und invertierbar.
 \end{theorem}
-\todo[inline]{Können wir den Beweis in ein früheres Kapitel schieben?}
+\todo[inline]{Dieses Resultat wurde bereits weitestgehend bewiesen, und ist hier nur Wiederholung.}
 \begin{proof}
   Sei $x\in X_{j}\backslash\set{0}$. Mit der Definition von $R_{j}$ in \eqref{defsschwarz} und da $A_{j,k}^{-1}$ positiv definit ist, folgt
   \begin{equation*}
@@ -4670,33 +4684,34 @@ Wegen Lemma~\ref{lem:QjAleqAjPj} ist das äquivalent zur bisherigen Definition
 
 \begin{theorem}\label{konvergenceAdditiveSmoother}
   Seien die Bedingungen \eqref{eq:ssmcondition2} und \eqref{eq:ssmcondition1} erfüllt und sei die Skalierungskonstante $\eta <\frac{1}{\beta}$.
-  Dann erfüllt die additive Methode von Schwarz $\eta \Radd_j = R_{j}$ die Bedingungen von Satz~\ref{thm:absMGconvergence} mit $\alpha = \frac{\gamma}{\eta}$.
+  Dann erfüllt die additive Methode von Schwarz $\Radd_j = \eta R_{j}$ die Bedingungen von Satz~\ref{thm:absMGconvergence} mit $\alpha = \frac{\gamma}{\eta}$.
 \end{theorem}
 
 Für den Beweis brauchen wir wieder Hilfssatz~\ref{lem:aPinvuu_has_minimal_energy}.
 Zur Erinnerung: Dieser besagt:
 
 \begin{lemma}\label{smootherinveqinfsum}
-  Für die additive Methode von Schwarz mit $\eta=1$ gilt für jedes $j=1,\dots ,J$
+  Für die additive Methode von Schwarz gilt für jedes $j=1,\dots ,J$
   \begin{equation*}
-    ((\Radd_j)^{-1}x,x)
+    (R_j^{-1}x,x)
     =
     \inf_{\substack{x= \sum_{i=1}^{n_j} x^i\\x^i\in X_{j}^i }} \sum_{i=1}^{n_j}  a(x^i,x^i) \quad \forall x\in X_{j}.
   \end{equation*}
 \end{lemma}
 
 \emph{Achtung:} In Hilfssatz~\ref{lem:aPinvuu_has_minimal_energy} steht auf der linken Seite
-$a(P^{-1}x,x)$ statt $((\Radd_j)^{-1}x,x)$.  Das macht aber keinen Unterschied, denn
+$a(P^{-1}x,x)$ statt $(R_j^{-1}x,x)$.  Das macht aber keinen Unterschied, denn
 \begin{equation*}
- ((\Radd_j)^{-1}x,x)
+ (R_j^{-1}x,x)
  =
- (A_j (\Radd_j A_j)^{-1}x,x)
+ (A_j (R_j A_j)^{-1}x,x)
  =
- a((\Radd_j A_j)^{-1}x,x)
+ a((R_j A_j)^{-1}x,x)
  =
  a(P^{-1}x,x).
 \end{equation*}
 
+\bigskip
 
 \begin{proof}[Beweis von Satz \ref{konvergenceAdditiveSmoother}]
   Der Beweis basiert auf \cite{arnold2000multigrid}, Kapitel 3.
@@ -4705,11 +4720,9 @@ $a(P^{-1}x,x)$ statt $((\Radd_j)^{-1}x,x)$.  Das macht aber keinen Unterschied,
   \begin{equation*}
    ((\Radd_j)^{-1} x,x) \le \alpha a(x,x)
    \qquad
-   \forall x \in (I - P_{j-1})X_j
+   \forall x \in (I - P_{j-1})X_j.
   \end{equation*}
 
-
-
   Sei $x\in X_{j}$ beliebig und gelte Bedingung~\eqref{eq:ssmcondition2}.
   Dann gilt
   \begin{align*}
@@ -4736,7 +4749,7 @@ $a(P^{-1}x,x)$ statt $((\Radd_j)^{-1}x,x)$.  Das macht aber keinen Unterschied,
   \end{equation*}
   Sei $x\in X_{j}$. Dann gilt
   \begin{align*}
-    a(R_{j}A_{j}x,x)
+    a(\Radd_j A_{j}x,x)
     \stackrela{\text{Def.\ $R_{j}$}}{=}
     \eta \sum_{i=1}^{n_j} a( A_{j,i}^{-1}Q_{j}^i A_{j}x,x) \\
     %
@@ -4751,15 +4764,15 @@ $a(P^{-1}x,x)$ statt $((\Radd_j)^{-1}x,x)$.  Das macht aber keinen Unterschied,
   \end{align*}
   Wir nutzen Bedingung~\eqref{eq:ssmcondition1} mit $x^k= P^k_{j}x\in X_{j}^k$ und $y^l = P^l_{j}x\in X_{j}^l$ und erhalten
   \begin{align*}
-    a(R_{j}A_{j}x,x)
+    a(\Radd_jA_{j}x,x)
     &\leq
-    \eta \beta [ \sum_{k=1}^{K} a( P_{j}^kx,P_{j}^kx)]^\frac{1}{2} [\sum_{k=1}^{K} a( P_{j}^kx,P_{j}^kx)]^\frac{1}{2} \\
+    \eta \beta [ \sum_{i=1}^{n_j} a( P_{j}^i x,P_{j}^ix)]^\frac{1}{2} [\sum_{l=1}^{n_j} a( P_{j}^l x,P_j^l x)]^\frac{1}{2} \\
     %
     & =
-    \eta \beta \sum_{k=1}^{K} a( P_{j}^kx,P_{j}^kx)\\
+    \eta \beta \sum_{i=1}^{n_j} a( P_j^i x,P_j^ix)\\
     %
     & =
-    \eta \beta \sum_{k=1}^{K} a( x,P_{j}^kx)\\
+    \eta \beta \sum_{i=1}^{n_j} a( x,P_j^i x)\\
     %
     & =
     \eta \beta a(x,x).
@@ -4811,27 +4824,39 @@ Die Rückwärtsiteration ist nötig um ein symmetrisches Verfahren zu erhalten.
     & =
     a(x, (I-\Rmult_j A_{j})y).
   \end{align}
-  Es ist also $I-\Rmult_j A_{j}$ selbstadjungiert bzgl.\ $a(\cdot,\cdot)$.
-  Dann ergibt sich
-  \begin{equation*}
-    a(\Rmult_j A_{j}x,y) = a(x,\Rmult_j A_{j}y).
-  \end{equation*}
+  Es ist also $I-\Rmult_j A_{j}$ selbstadjungiert bzgl.\ $a(\cdot,\cdot)$,
+  und ebenso $\Rmult_j A_{j}$.
+
   Daraus folgt
-  \begin{equation*}
-    (\Rmult_j A_{j}x, A_j y) = a(A_j x, \Rmult_j A_{j}y).
-  \end{equation*}
-  Die Behauptung folgt nun, da der Operator $A_{j}$ invertierbar ist.
+  \begin{align*}
+   (\Rmult_j x,y)
+   & =
+   (\Rmult_j A_j\bar{x}, A_j\bar{y})
+   =
+   a(\Rmult_j A_j\bar{x}, \bar{y}) \\
+   & =
+   a(\bar{x}, \Rmult_j A_j\bar{y})
+   =
+   (A_j \bar{x}, \Rmult_j A_j\bar{y})
+   =
+   (x, \Rmult_j y).
+   \qedhere
+  \end{align*}
 \end{proof}
 
-Definiere für $k=1,\dots ,K$ den Operator $E_{k}:X_{j}\to X_j$ durch die Rekursion
+\bigskip
+
+Im Platz zu sparen führen wir neue Notation ein:
+
+Definiere für $i=1,\dots, n_j$ den Operator $E_i :X_{j}\to X_j$ durch die Rekursion
 \begin{equation*}
-    E_{k} = (I-P_{j}^k)E_{k-1}
+    E_i \colonequals (I-P_{j}^i)E_{i-1}
 \end{equation*}
 mit $E_{0}=I$.
 
 
 \begin{lemma}\label{helplemmaAssleqmss}
-  Für alle $k=0,\dots ,K$ gilt
+  Für alle $k=0,\dots ,n_j$ gilt
   \begin{equation*}
     I = E_{k} + \sum_{i=1}^{k} P_{j}^iE_{i-1}.
   \end{equation*}
@@ -4864,7 +4889,7 @@ Das folgende Lemma zeigt, dass die multiplikative Methode positiv definit ist.
   \begin{equation*}
     (R^\textup{add}_{j}x,x) \leq \beta^2 (R_{j}^\textup{mult}x,x)\quad \forall x\in X_{j}
   \end{equation*}
-  mit $\beta$ aus der Ãœberlappungsbedingung~\eqref{eq:ssmcondition1}.
+  mit der Dämpfung $\eta = 1$, und $\beta$ aus der Überlappungsbedingung~\eqref{eq:ssmcondition1}.
 \end{lemma}
 \begin{proof}
   Der Beweis wurde \cite{arnold1997preconditioning} entnommen.
@@ -4879,72 +4904,74 @@ Das folgende Lemma zeigt, dass die multiplikative Methode positiv definit ist.
   \end{align*}
   erhalten wir
   \begin{align*}
-    a(E_{K}x,E_{K}y) = a(x,y) - \sum_{k=1}^{K} a(P_{j}^{k}E_{k-1}x,E_{k-1}y).
+    a(E_{n_j}x,E_{n_j}y) = a(x,y) - \sum_{k=1}^{n_j} a(P_{j}^{k}E_{k-1}x,E_{k-1}y).
   \end{align*}
   Mit \eqref{representationMSS} folgt
   \begin{equation}\label{msseq}
-    a(R_{j}^mA_{j}x,y) = \sum_{k=1}^{K} a(P_{j}^{k}E_{k-1}x,E_{k-1}y).
+    a(\Rmult_j A_{j}x,y) = \sum_{k=1}^{n_j} a(P_{j}^{k}E_{k-1}x,E_{k-1}y).
   \end{equation}
   Diese Darstellung wollen wir am Ende des Beweises erhalten.
 
+  \medskip
+
   Um die Abschätzung zu zeigen, benötigen wir die Gleichung
   \begin{equation}\label{removeSomeEs}
-    P_{j}^kE_{k} = P_{j}^k(I-P_{j}^k)\dots (I-P_{j}^1) = 0.
+    P_{j}^kE_{k} = P_{j}^k(I-P_{j}^k)\cdots (I-P_{j}^1) = 0.
   \end{equation}
   Damit erhalten wir
   \begin{align}\label{msshelp1}
-    a(R_{j}^aAx,x)
+    a(\Radd_j Ax,x)
     \stackrela{\eqref{eq:aschwarzrepre}}{=}
-    \sum_{k=1}^{K} a(P_{j}^kx,x)\\
+    \sum_{k=1}^{n_j} a(P_{j}^kx,x)\\
     %
     \stackrela{\text{Lemma~\ref{helplemmaAssleqmss}}}{=}
-    \sum_{k=1}^{K} a(P_{j}^kx,(E_{k} + \sum_{i=1}^{k} P_{j}^iE_{i-1})x)) \nonumber\\
+    \sum_{k=1}^{n_j} a(P_{j}^kx,(E_{k} + \sum_{i=1}^{k} P_{j}^iE_{i-1})x)) \nonumber\\
     %
     &=
-    \sum_{k=1}^{K} a(P_{j}^kx,E_{k}x) + \sum_{k=1}^{K} a(P_{j}^kx,\sum_{i=1}^{k} P_{j}^iE_{i-1}x)) \nonumber\\
+    \sum_{k=1}^{n_j} a(P_{j}^kx,E_{k}x) + \sum_{k=1}^{n_j} a(P_{j}^kx,\sum_{i=1}^{k} P_{j}^iE_{i-1}x)) \nonumber\\
     %
     \stackrela{\eqref{removeSomeEs}}{=}
-    \sum_{k=1}^{K} a(P_{j}^kx, \underbrace{ P_{j}^kE_{k}}_{=0}x) +\sum_{k=1}^{K}\sum_{i=1}^{k} a(P_{j}^kx, P_{j}^iE_{i-1}x))\nonumber\\
+    \sum_{k=1}^{n_j} a(P_{j}^kx, \underbrace{ P_{j}^kE_{k}}_{=0}x) +\sum_{k=1}^{n_j}\sum_{i=1}^{k} a(P_{j}^kx, P_{j}^iE_{i-1}x))\nonumber\\
     %
     &=
-    \sum_{k=1}^{K}\sum_{i=1}^{k} a(P_{j}^kx, P_{j}^iE_{i-1}x)).\label{helpasleqms1}
+    \sum_{k=1}^{n_j}\sum_{i=1}^{k} a(P_{j}^kx, P_{j}^iE_{i-1}x)).\label{helpasleqms1}
   \end{align}
   Mit der Cauchy-Schwarz Ungleichung und Bedingung~\eqref{eq:ssmcondition1} gilt
   \begin{align*}
-   \sum_{k=1}^{K}\sum_{i=1}^{k} a(P_{j}^kx, P_{j}^iE_{i-1}x)
+   \sum_{k=1}^{n_j}\sum_{i=1}^{k} a(P_{j}^kx, P_{j}^iE_{i-1}x)
    &=
-   a\bigg(\sum_{k=1}^{K}P_{j}^kx, \sum_{i=1}^{k}P_{j}^iE_{i-1}x\bigg) \\
+   a\bigg(\sum_{k=1}^{n_j}P_{j}^kx, \sum_{i=1}^{k}P_{j}^iE_{i-1}x\bigg) \\
    %
    \stackrela{\text{Cauchy-Schwarz}}{\leq}
-   a\bigg(\sum_{k=1}^{K}P_{j}^kx, \sum_{k=1}^{K}P_{j}^kx\bigg)^\frac{1}{2} a\bigg(\sum_{i=1}^{k}P_{j}^iE_{i-1}x, \sum_{i=1}^{k}P_{j}^iE_{i-1}x\bigg)^\frac{1}{2}\\
+   a\bigg(\sum_{k=1}^{n_j}P_{j}^kx, \sum_{k=1}^{n_j}P_{j}^kx\bigg)^\frac{1}{2} a\bigg(\sum_{i=1}^{k}P_{j}^iE_{i-1}x, \sum_{i=1}^{k}P_{j}^iE_{i-1}x\bigg)^\frac{1}{2}\\
    %
    \stackrela{\text{Bedingung~\eqref{eq:ssmcondition1}}}{\leq}
-   \beta a\bigg(\sum_{k=1}^{K}P_{j}^kx,x\bigg)^\frac{1}{2} a\bigg(\sum_{i=1}^{k}P_{j}^iE_{i-1}x,E_{i-1}x\bigg)^\frac{1}{2}.
+   \beta a\bigg(\sum_{k=1}^{n_j}P_{j}^kx,x\bigg)^\frac{1}{2} a\bigg(\sum_{i=1}^{k}P_{j}^iE_{i-1}x,E_{i-1}x\bigg)^\frac{1}{2}.
   \end{align*}
 
   Wir erhalten
   \begin{align*}
-   \sum_{k=1}^{K}aA(P_{j}^kx,x)
+   \sum_{k=1}^{n_j}a(P_{j}^kx,x)
    \stackrela{\eqref{helpasleqms1}}{=}
-   \sum_{k=1}^{K}\sum_{i=1}^{k} a(P_{j}^kx, P_{j}^iE_{i-1}x)\\
+   \sum_{k=1}^{n_j}\sum_{i=1}^{k} a(P_{j}^kx, P_{j}^iE_{i-1}x)\\
    %
    &\leq
-   \beta a\bigg(\sum_{k=1}^{K}P_{j}^kx,x\bigg)^\frac{1}{2} a\bigg(\sum_{i=1}^{k}P_{j}^iE_{i-1}x,E_{i-1}x\bigg)^\frac{1}{2} \\
+   \beta a\bigg(\sum_{k=1}^{n_j}P_{j}^kx,x\bigg)^\frac{1}{2} a\bigg(\sum_{i=1}^{k}P_{j}^iE_{i-1}x,E_{i-1}x\bigg)^\frac{1}{2} \\
    %
    &=
-   \beta a\bigg(\sum_{k=1}^{K}P_{j}^kx,x\bigg)^\frac{1}{2} \bigg(\sum_{i=1}^{K}a(P_{j}^iE_{i-1}x,E_{i-1}x) \bigg)^\frac{1}{2}.
+   \beta a\bigg(\sum_{k=1}^{n_j}P_{j}^kx,x\bigg)^\frac{1}{2} \bigg(\sum_{i=1}^{n_j}a(P_{j}^iE_{i-1}x,E_{i-1}x) \bigg)^\frac{1}{2}.
   \end{align*}
-  Schließlich gilt mit \eqref{msseq}
+  Schließlich gilt mit~\eqref{msseq}
   \begin{align}
-    a(R_{j}^aA_{j}x,x)
+    a(\Radd_j A_{j}x,x)
     \stackrela{\eqref{eq:aschwarzrepre}}{=}
-    \sum_{k=1}^{K} a(P_{j}^kx,x) \nonumber\\
+    \sum_{k=1}^{n_j} a(P_{j}^kx,x) \nonumber\\
     %
     &\leq
-    \beta^2 \sum_{k=1}^{K} a(P_{j}^kE_{k-1}x,E_{k-1}x) \nonumber\\
+    \beta^2 \sum_{k=1}^{n_j} a(P_{j}^kE_{k-1}x,E_{k-1}x) \nonumber\\
     %
     \stackrela{\eqref{msseq}}{=}
-    \beta^2  a(R_{j}^mA_{j}x,x).
+    \beta^2  a(\Rmult_j A_{j}x,x).
   \end{align}
   Da $A_{j}$ invertierbar ist, gilt
   \begin{equation*}
@@ -4963,9 +4990,6 @@ Das folgende Lemma zeigt, dass die multiplikative Methode positiv definit ist.
 
 \begin{proof}
   Die Beweisidee wurde aus dem Beweis von Satz 3.2 aus \cite{arnold2000multigrid} entnommen.
-  Die Symmetrie von $R_{j}^m$ bezüglich $(\cdot,\cdot)$ haben wir in Lemma \ref{smsssym} gezeigt.
-  Das $R_{j}^m$ positiv definit ist, folgt aus Lemma \ref{asleqms} und Satz \ref{satzAsspossyminv}.
-  Die Invertierbarkeit folgt dann analog zum Beweis von Satz \ref{satzAsspossyminv}.
 
   Bedingung~\eqref{eq:scondition1} folgt aus \eqref{representationMSS} mit $y=x$:
   \begin{equation*}
@@ -4975,24 +4999,24 @@ Das folgende Lemma zeigt, dass die multiplikative Methode positiv definit ist.
   \end{equation*}
 
   Sei $x\in X_{j}$ mit $j\in \set{1,\dots ,J}$ beliebig.
-  Definiere dann $v = (I-P_{j-1})x$ nutze die Zerlegung $v = \sum_{k=1}^{K} v_{k}$ mit  $v_{k}\in X_{j}^k$.
+  Definiere dann $v = (I-P_{j-1})x$ nutze die Zerlegung $v = \sum_{k=1}^{n_j} v_{k}$ mit  $v_{k}\in X_{j}^k$.
   Dann gilt.
   \begin{align*}
-    ((R_{j}^m)^{-1}v,v)
+    ((\Rmult_j)^{-1}v,v)
     &=
-    \sum_{k=1}^{K} a(A_{j}^{-1}(R_{j}^m)^{-1}v,v_{k}) \\
+    \sum_{k=1}^{n_j} a(A_{j}^{-1}(\Rmult_j)^{-1}v,v_{k}) \\
     &=
-    \sum_{k=1}^{K} a(P_{j}^kA_{j}^{-1}(R_{j}^m)^{-1}v,v_{k}) \\
+    \sum_{k=1}^{n_j} a(P_{j}^kA_{j}^{-1}(\Rmult_j)^{-1}v,v_{k}) \\
     \stackrela{\text{Cauchy-Schwarz}}{\leq}
-    \sum_{k=1}^{K} a(P_{j}^kA_{j}^{-1}(R_{j}^m)^{-1}v,A_{j}^{-1}(R_{j}^m)^{-1}v)^\frac{1}{2} a(v_{k},v_{k})^\frac{1}{2}\\
+    \sum_{k=1}^{n_j} a(P_{j}^kA_{j}^{-1}(\Rmult_j)^{-1}v,A_{j}^{-1}(\Rmult_j)^{-1}v)^\frac{1}{2} a(v_{k},v_{k})^\frac{1}{2}\\
     \stackrela{A \text{ s.p.d}}{\leq}
-    (\sum_{k=1}^{K} a(P_{j}^kA_{j}^{-1}(R_{j}^m)^{-1}v,A_{j}^{-1}(R_{j}^m)^{-1}v))^\frac{1}{2} (\sum_{k=1}^{K}a(v_{k},v_{k}) )^\frac{1}{2}\\
+    (\sum_{k=1}^{n_j} a(P_{j}^kA_{j}^{-1}(\Rmult_j)^{-1}v,A_{j}^{-1}(\Rmult_j)^{-1}v))^\frac{1}{2} (\sum_{k=1}^{n_j}a(v_{k},v_{k}) )^\frac{1}{2}\\
     \stackrela{\text{Bedingung }\eqref{eq:ssmcondition2}}{\leq}
-    \sqrt{\gamma} \Bigg( a( \underbrace{\sum_{k=1}^{K} P_{j}^kA_{j}^{-1}}_{=R_{j}^a}(R_{j}^m)^{-1}v,A_{j}^{-1}(R_{j}^m)^{-1}v)\Bigg)^\frac{1}{2} a(v,v)^\frac{1}{2}\\
+    \sqrt{\gamma} \Bigg( a( \underbrace{\sum_{k=1}^{n_j} P_{j}^kA_{j}^{-1}}_{=\Radd_j}(\Rmult_j)^{-1}v,A_{j}^{-1}(\Rmult_j)^{-1}v)\Bigg)^\frac{1}{2} a(v,v)^\frac{1}{2}\\
     &=
-    \sqrt{\gamma} ( ( R_{j}^a(R_{j}^m)^{-1}v,(R_{j}^m)^{-1}v))^\frac{1}{2} A(v,v)^\frac{1}{2}\\
+    \sqrt{\gamma} ( ( \Radd_j(\Rmult_j)^{-1}v,(\Rmult_j)^{-1}v))^\frac{1}{2} A(v,v)^\frac{1}{2}\\
     \stackrela{\text{Lemma~\ref{asleqms}}}{\leq}
-    \sqrt{\gamma} \beta \ ( v,(R_{j}^m)^{-1}v)^\frac{1}{2} a(v,v)^\frac{1}{2}.
+    \sqrt{\gamma} \beta \ ( v,(\Rmult_j)^{-1}v)^\frac{1}{2} a(v,v)^\frac{1}{2}.
   \end{align*}
   Da $x$ und die Zerlegung von $v$ beliebig  waren, folgt Bedingung~\eqref{eq:scondition2}.
 \end{proof}
-- 
GitLab