Commit 6100df57 authored by Sander, Oliver's avatar Sander, Oliver
Browse files

Verbesserungen: Konvergenz der abstrakten Schwarz-Verfahren

parent 96346df5
Pipeline #6296 passed with stage
in 3 minutes and 15 seconds
......@@ -2890,6 +2890,7 @@ mit
\subsection{Das multiplikative Schwarz-Verfahren}
\label{sec:intro_multiplicative_schwarz}
Das multiplikative Schwarz-Verfahren ist
\begin{equation*}
......@@ -3181,8 +3182,8 @@ Kapitel~\ref{sec:iterative_loeser} direkter hätte.}
\todo[inline]{Zeige dass $B_\text{add}A$ symmetrisch ist.}
Hier wird benutzt dass $P$ selbstadjungiert bzgl.\ $a(\cdot,\cdot)$ ist.
In der Tat gilt für all $u,v \in V$
In Folgenden wird ab und zu benutzt dass $P$ selbstadjungiert bzgl.\ $a(\cdot,\cdot)$ ist.
In der Tat gilt für all $u,v \in X$
\begin{equation*}
a(P_i u,v) = a(v,P_i u) = a(P_iv,P_i u) = a(P_i u, P_i v) = a(u,P_i v).
\end{equation*}
......@@ -3202,28 +3203,28 @@ Dieses Resultat basiert auf folgendem Hilfssatz:
\begin{equation*}
a(P^{-1} u,u)
=
\min_{u_i \in V_i, u = \sum_{i=1}^K u_i}
\min_{\substack{ u_i \in X_i \\ u = \sum_{i=1}^K u_i}}
\sum_{i=1}^K a(u_i,u_i).
\end{equation*}
\end{hilfssatz}
\emph{Beachte:} Dies gilt für alle Familien von Räumen $\{V_i\}$,
\emph{Beachte:} Dies gilt für alle Familien von Räumen $\{X_i\}$,
unabhängig von den Werten der Konstanten $C_0$ und $\mathcal{E}_{ij}$.
\begin{proof}
Wir machen folgenden Ansatz:
Wir beweisen mit folgender Strategie:
\begin{enumerate}
\item Konstruiere eine Zerlegung, für die Gleichheit gilt.
\item Zeige dann, dass alle anderen Zerlegungen größere Werte annehmen.
\item Zeige dann, dass alle anderen Zerlegungen größere Werte als $a(P^{-1}u,u)$ annehmen.
\end{enumerate}
\emph{Teil~1:}
\begin{itemize}
\item Setze $u_i \colonequals P_i P^{-1} u$
\item Setze $u_i \colonequals P_i P^{-1} u$.
%
\item Es gilt dann
\begin{equation*}
\sum_{i=1}^K u_i = \Big(\sum_i P_i\Big) P^{-1} u = u,
\sum_{i=1}^K u_i = \sum_{i=1}^K P_i P^{-1} u = u,
\end{equation*}
%
und
......@@ -3242,7 +3243,7 @@ unabhängig von den Werten der Konstanten $C_0$ und $\mathcal{E}_{ij}$.
Wir zeigen jetzt
\begin{equation*}
a(P^{-1}u,u) \le \sum_{i=1}^K a(u_i,u_i)
\qquad \forall u_i \in V_i,\quad \sum_{i=1}^K u_i = u.
\qquad \forall u_i \in X_i,\quad \sum_{i=1}^K u_i = u.
\end{equation*}
Als erstes man man direkt ausrechnen, dass
......@@ -3262,7 +3263,7 @@ unabhängig von den Werten der Konstanten $C_0$ und $\mathcal{E}_{ij}$.
\qquad \text{(Def.\ von $P_i$)} \\
& =
a(P^{-1} u, u)^{1/2}
\bigg( \sum_{i=1}^K a(u_i, u_i) \bigg)^{1/2}
\bigg( \sum_{i=1}^K a(u_i, u_i) \bigg)^{1/2}.
\end{align*}
%
Die Behauptung folgt, wenn man auf beiden Seiten quadriert und durch $a(P^{-1}u,u)$ teilt.
......@@ -3270,7 +3271,9 @@ unabhängig von den Werten der Konstanten $C_0$ und $\mathcal{E}_{ij}$.
Mit dem Hilfssatz beweisen wir jetzt
\begin{equation*}
\frac{1}{\lambda_\text{min}} \le C_0^2.
\frac{1}{\lambda_\text{min}(B_\text{add}A)}
=
\frac{1}{\lambda_\text{min}(P)} \le C_0^2.
\end{equation*}
\begin{proof}
Wenn $\lambda$ Eigenwert von $P$ ist, so ist $\lambda^{-1}$ Eigenwert von $P^{-1}$.
......@@ -3283,13 +3286,13 @@ Mit dem Hilfssatz beweisen wir jetzt
& =
\lambda_\text{max}(P^{-1}) \\
& =
\max_{u \neq 0} \frac{a(P^{-1} u,u)}{a(u,u)} \qquad \text{(Rayleigh-Quotient)} \\
\sup_{u \neq 0} \frac{a(P^{-1} u,u)}{a(u,u)} \qquad \text{(Rayleigh-Quotient)} \\
& =
\max_{u \neq 0} \frac{\displaystyle \min_{u_i \in V_i, \sum_{i=1}^K{u_i = u}} \sum_{i=1}^K a(u_i,u_i)}{a(u,u)}
\qquad \text{[Hilfssatz~\ref{lem:aPinvuu_has_minimal_energy}]} \\
\sup_{u \neq 0} \frac{\displaystyle \min_{u_i \in X_i, \sum_{i=1}^K{u_i = u}} \sum_{i=1}^K a(u_i,u_i)}{a(u,u)}
\qquad \text{(Hilfssatz~\ref{lem:aPinvuu_has_minimal_energy})} \\
& \le
\max_{u \neq 0} \frac{C_0^2 a(u,u)}{a(u,u)}
\qquad \text{(Def.~\ref{def:TRK_annahme_1}} \\
\sup_{u \neq 0} \frac{C_0^2 a(u,u)}{a(u,u)}
\qquad \text{(Def.~\ref{def:TRK_annahme_1})} \\
& =
C_0^2.
\qedhere
......@@ -3299,39 +3302,29 @@ Mit dem Hilfssatz beweisen wir jetzt
Als zweiten Teil beweisen wir die Abschätzung für den \emph{größten} Eigenwert
von $P_\text{add} = B_\text{add} A$.
von $B_\text{add} A$.
\begin{lemma}
\begin{equation*}
\lambda_\text{max} \le \rho(\mathcal{E}).
\lambda_\textup{max}(B_\textup{add}A) \le \rho(\mathcal{E}).
\end{equation*}
\end{lemma}
\todo[inline]{Erkläre: Ohne die verstärkte CS-Ungleichung würde $\lambda_\text{max}$
von $K$ abhängen.}
Zur Erinnerung: Ohne die verstärkte Cauchy-Schwarz-Ungleichung hätte man hier
eine Abhängigkeit von $K$.
\begin{proof}
Wir schätzen zuerst den größten Eigenwert von $\widehat{P}^2 \colonequals (\sum_{i=1}^K P_i)^2$ ab.
Dabei werden wir benutzen dass
\begin{equation*}
a(\widehat{P}^2 v,v) = a(\widehat{P}v,\widehat{P}v).
\end{equation*}
\todo[inline]{Achtung: Es ist $\widehat P \neq P$ nur dann wenn der Spezialraum $V_0$ dabei ist.}
Wir beginnen deshalb mit
Wir beginnen mit
\begin{align*}
a(\widehat{P}v,\widehat{P}v)
& =
a\Big(\sum_{i=1}^K P_i v, \sum_{i=1}^K P_i v\Big) \\
a(Pv,Pv)
& =
\sum_{i,j=1}^K a(P_i v, P_j v) \\
& \le
\sum_{i,j=1}^K \mathcal{E}_{ij} a(P_i v, P_i v)^{1/2} a(P_j v, P_j v)^{1/2}
\qquad \text{(Def.\ von $\mathcal{E}$)} \\
& \le
\rho(\mathcal{E}) \sum_{i=1} a(P_iv, P_i v)
\rho(\mathcal{E}) \sum_{i=1}^K a(P_iv, P_i v)
\qquad \text{(wegen $x^T E x \le \rho(E) x^T x$) für jede Matrix $E$)} \\
& =
\rho(\mathcal{E}) \sum_{i=1}^K a(v,P_i v)
......@@ -3339,62 +3332,75 @@ von $K$ abhängen.}
& =
\rho(\mathcal{E}) a\Big(v,\sum_{i=1}^K P_i v\Big) \\
& \le
\rho(\mathcal{E}) a(v,v)^{1/2} a(\widehat{P}v,\widehat{P}v)^{1/2}
\rho(\mathcal{E}) a(v,v)^{1/2} a(Pv,Pv)^{1/2}
\qquad \text{(Cauchy--Schwarz)}.
\end{align*}
\begin{itemize}
\item Es folgt also
\begin{equation*}
a(\widehat{P}^2v,v) = a(\widehat{P}v,\widehat{P}v) \le \rho(\mathcal{E})^2 a(v,v).
a(P^2v,v) = a(Pv,Pv) \le \rho(\mathcal{E})^2 a(v,v).
\end{equation*}
\item Der größte Eigenwert von $\widehat{P}^2$ ist also $\le \rho(\mathcal{E})^2$.
\item Der größte Eigenwert von $P^2$ ist also $\le \rho(\mathcal{E})^2$.
%
\item Der größte Eigenwert von $\widehat{P}$ ist also $\le \rho(\mathcal{E})$,
es gilt also insbesondere
\begin{equation}
\label{eq:bound_sum_of_projections_no_coarse_space}
a(\widehat{P} v,v) \le \rho(\mathcal{E}) a(v,v).
\end{equation}
\item Der größte Eigenwert von $P$ ist also $\le \rho(\mathcal{E})$.
\qedhere
\end{itemize}
\end{proof}
\todo[inline]{Den letzten Schritt nochmal nachprüfen!}
Da der größte Eigenwert von $P$ also kleiner als $\rho(\mathcal{E})$ ist folgt insbesondere
\begin{equation}
\label{eq:bound_sum_of_projections_no_coarse_space}
a(P v,v) \le \rho(\mathcal{E}) a(v,v).
\end{equation}
Das werden wir später benutzen.
\subsection{Konvergenz der abstrakten multiplikativen Schwarz-Methode}
Wir beweisen jetzt ganz ähnlich die Konvergenz der symmetrischen
multiplikativen Schwarz-Methode
\begin{equation*}
B_\text{mult}A
\colonequals
I - (I-P_1)\cdots(I-P_K)(I-P_K)\cdots(I-P_1).
\end{equation*}
Diese entspricht dem Verfahren aus Kapitel~\ref{sec:intro_multiplicative_schwarz},
gefolgt von einer Iteration mit umgekehrter Reihenfolge der Projektionen.
\begin{theorem}
\label{satz:abstrakte_multiplikative_schwarz_methode_konvergiert}
Für die symmetrische multiplikative Schwarz-Methode gilt
\begin{align*}
\lambda_\text{max}(B_\textnormal{mult} A)
& =
\lambda_\text{max} \big[I - (I-P_0)\cdots(I-P_K)(I-P_p)\cdots(I-P_0)\big]
\lambda_\textup{max}(B_\textnormal{mult} A)
\le
1 \\
1
%
\lambda_\text{min}(B_\textnormal{mult} A)
& =
\lambda_\text{min} \big[I - (I-P_0)\cdots(I-P_K)(I-P_K)\cdots(I-P_0)\big]
\qquad \qquad
%
\lambda_\textup{min}(B_\textnormal{mult} A)
\ge
\frac{1}{(1+2 \rho(\mathcal{E})^2) C_0^2} \\
\frac{1}{\rho(\mathcal{E})^2 C_0^2},
\end{align*}
zusammen also
\begin{align*}
%
\kappa(B_\textnormal{mult} A)
& =
\kappa \big[I - (I-P_0)\cdots(I-P_K)(I-P_K)\cdots(I-P_0)\big]
\le
(1+ \rho(\mathcal{E})^2) C_0^2.
& \le
\rho(\mathcal{E})^2 C_0^2.
\end{align*}
\end{theorem}
%
Bevor wir dieses Ergebnis beweisen führen wir noch etwas Notation ein.
\begin{itemize}
\item Sei $E_i = (I-P_i)\dots(I-P_0)$ und $E_{-1} = I$.
\item Sei $E_i \colonequals (I-P_i)\dots(I-P_1)$ und $E_0 = I$.
%
\item Sei $E_K^T$ die Adjungierte von $E_K$ bzgl.\ $a(\cdot,\cdot)$,
also $a(E_K v,w) = a(v,E_K^T w) \; \forall v,w \in V$.
also $a(E_K v,w) = a(v,E_K^T w)$ für alle $v,w \in X$.
%
\item Es ist dann $B_\text{mult} A = I - E_K^T E_K$.
\item Es ist dann $B_\text{mult} A = I - E_K^T E_K$; das ist offenkundig selbstadjungiert.
%
\item Wir schreiben jetzt nur noch $BA$ statt $B_\text{mult} A$.
\end{itemize}
......@@ -3402,11 +3408,11 @@ Bevor wir dieses Ergebnis beweisen führen wir noch etwas Notation ein.
Weiterhin beweisen wir noch folgendes kurzes Hilfsresultat.
\begin{lemma}
\label{lem:hs_multiplicative_schwarz}
Für alle $v \in X$ ist
\begin{equation*}
a(BAv,v) \ge \sum_{i=0}^K a(E_{i-1} v, P_i E_{i-1} v).
a(BAv,v) = \sum_{i=1}^K a(E_{i-1} v, P_i E_{i-1} v).
\end{equation*}
\end{lemma}
\todo[inline]{Prüfen: Mit exakten Bilinearformen bekommt man anscheinend Gleichheit!}
\begin{proof}
Zunächst ist
\begin{align*}
......@@ -3414,22 +3420,22 @@ Zunächst ist
& =
a(v,v) - a(E_K v, E_K v) \\
& =
\sum_{i=0}^K \Big[ a(E_{i-1} v, E_{i-1} v) - a(E_i v, E_i v) \big]
\sum_{i=1}^K \Big[ a(E_{i-1} v, E_{i-1} v) - a(E_i v, E_i v) \big].
\qquad
\text{(Teleskopsumme)}.
\text{(Teleskopsumme)}
\end{align*}
Da $E_i = (I-P_i)E_{i-1} = E_{i-1} - P_i(E_{i-1})$ ist das gleich
Da $E_i = (I-P_i)E_{i-1} = E_{i-1} - P_i(E_{i-1})$ ist ist das gleich
\begin{equation*}
= \sum_{i=0}^K \Big[ a(E_{i-1} v, E_{i-1} v) - a(E_{i-1} - P_i E_{i-1} v, E_{i-1} - P_i E_{i-1} v) \Big].
= \sum_{i=1}^K \Big[ a(E_{i-1} v, E_{i-1} v) - a(E_{i-1} - P_i E_{i-1} v, E_{i-1} - P_i E_{i-1} v) \Big].
\end{equation*}
Ausmultiplizieren der zweiten Bilinearform und kürzen ($P_i$ ist selbstadjungiert!)
\todo[inline]{Wo steht das?}
\begin{align*}
a(BAv,v)
& =
\sum_{i=0}^K \Big[ 2 a(E_{i-1} v, P_i E_{i-1} v)
\sum_{i=1}^K \Big[ 2 a(E_{i-1} v, P_i E_{i-1} v)
- \underbrace{a(P_i E_{i-1} v, P_i E_{i-1} v)}_{= a(E_{i-1} v, P_i E_{i-1} v)} \Big] \\
& =
\sum_{i=0}^p a(E_{i-1} v, P_i E_{i-1} v).
\sum_{i=1}^p a(E_{i-1} v, P_i E_{i-1} v).
\qedhere
\end{align*}
\end{proof}
......@@ -3440,7 +3446,7 @@ Damit können wir das eigentliche Resultat zeigen.
Wir schätzen wieder den größten und den kleinsten Eigenwert separat ab.
\emph{Teil 1:}
Wir zeigen zuerst: $\lambda_\text{max} (BA) \le 1$, wie üblich mit dem
Wir zeigen zuerst $\lambda_\text{max} (BA) \le 1$, wie üblich mit dem
Rayleigh-Quotienten:
\begin{align*}
\lambda_\text{max}(BA)
......@@ -3459,79 +3465,72 @@ Rayleigh-Quotienten:
\emph{Teil 2:}
Jetzt zeigen wir dass
\begin{equation*}
\frac{1}{[1+2 \rho(\mathcal{E})^2]C_0^2}
\frac{1}{\rho(\mathcal{E})^2 C_0^2}
\le
\lambda_\text{min}(BA),
\end{equation*}
indem wir
\begin{equation*}
\frac{1}{[1+2 \rho(\mathcal{E})^2]C_0^2}
\frac{1}{\rho(\mathcal{E})^2 C_0^2}
\le
\frac{a(BAv,v)}{a(v,v)}
\qquad
\forall v \in V
\forall v \in X
\end{equation*}
zeigen. Das ist aufwändiger.
\bigskip
Wir schätzen zunächst $a(P_i v,v)$ ab.
Wir benutzen dazu dass
Wir schätzen zunächst $a(P_i v,v)$ ab. Dazu benutzen wir dass
\begin{equation*}
I = P_0 + E_{i-1} + \sum_{j=1}^{i-1} P_j E_{j-1}.
I = E_{i-1} + \sum_{j=1}^{i-1} P_j E_{j-1}
\qquad
\text{für alle $i=1,\dots,K$}.
\end{equation*}
[Beweis mittels vollständiger Induktion]
\todo[inline]{Beweis nochmal nachrechnen!}
Einsetzen:
\begin{align*}
a(P_i v,v)
& =
a(P_i v, P_0 v) + a(P_i v, E_{i-1} v) + \sum_{j=1}^{i-1} a(P_i v, P_j E_{j-1} v) \\
a(P_i v, E_{i-1} v) + \sum_{j=1}^{i-1} a(P_i v, P_j E_{j-1} v) \\
& \le
a (v, P_i P_0 v) + a(v, P_i E_{i-1} v) \qquad \text{Selbstadjungiertheit von $P_i$} \\
a(v, P_i E_{i-1} v) \qquad \text{Selbstadjungiertheit von $P_i$} \\
& \quad + \sum_{j=1}^{i-1} \mathcal{E}_{ij} a(P_iv,P_iv)^{1/2} a(P_j E_{j-1} v, P_j E_{j-1} v)^{1/2}
\qquad \text{[Annahme 2]}
\qquad \text{(Annahme 2)}
\end{align*}
Wir wollen das $a(P_i v, P_i v)^{1/2}$ ausklammern.
Da
\begin{equation*}
a(v,P_i P_0 v) = a_i(P_iv,P_i P_0 v) \le a_i(P_iv,P_iv)^{1/2} a_i(P_i P_0 v,P_i P_0 v)^{1/2}
a(v,P_i E_{i-1} v) = a(P_iv,P_i E_{i-1} v) \le a(P_iv,P_iv)^{1/2} a(P_i E_{i-1} v,P_i E_{i-1} v)^{1/2}
\end{equation*}
und ähnlich für $a(v,P_i E_{i-1} v)$ folgt
folgt
\begin{align*}
a(P_i v,v)
& \le
a (P_i v, P_i v)^{1/2}
\Big[ a (P_i P_0 v, P_i P_0 v)^{1/2} + a (P_i E_{i-1} v, P_i E_{i-1} v)^{1/2} \\
& \quad
\Big[ a (P_i E_{i-1} v, P_i E_{i-1} v)^{1/2}
+ \sum_{j=1}^{i-1} \mathcal{E}_{ij} a (P_j E_{j-1} v, P_j E_{j-1} v)^{1/2} \Big] \\
& =
a (P_i v, v)^{1/2}
\Big[ a (P_i P_0 v, P_0 v)^{1/2} + a (P_i E_{i-1} v, E_{i-1} v)^{1/2} \\
& \quad
\Big[ a (P_i E_{i-1} v, E_{i-1} v)^{1/2}
+ \sum_{j=1}^{i-1} \mathcal{E}_{ij} a (P_j E_{j-1} v, E_{j-1} v)^{1/2} \Big].
\end{align*}
Der zweite Term kann in die Summe gezogen werden:
Der mittlere Term kann in die Summe gezogen werden:
\begin{equation*}
a(P_i,v)
\le
a(P_iv,v)^{1/2}
\Big[ a(P_i P_0 v, P_0 v)^{1/2} + b m\sum_{j=1}^i \mathcal{E}_{ij} a(P_j E_{j-1} v, E_{j-1} v)^{1/2} \Big].
\cdot \sum_{j=1}^i \mathcal{E}_{ij} a(P_j E_{j-1} v, E_{j-1} v)^{1/2}.
\end{equation*}
Mit dem üblichen \glqq Quadrieren-und-Teilen\grqq-Trick erhält man
\begin{equation*}
a(P_i v, v)
\le
\Big[ a(P_i P_0 v, P_0 v)^{1/2} + \sum_{j=1}^i \mathcal{E}_{ij} a(P_j E_{j-1} v, E_{j-1} v)^{1/2} \Big]^2,
\end{equation*}
und da $(a+b)^2 \le (a+b)^2 + (a-b)^2 = 2a^2 + 2b^2$ ist folgt
\begin{equation*}
a(P_i v, v)
\le
2 a(P_i P_0 v, P_0 v) + 2\Big[ \sum_{j=1}^i \mathcal{E}_{ij} a(P_j E_{j-1} v, E_{j-1} v)^{1/2} \Big]^2.
\Big[ \sum_{j=1}^i \mathcal{E}_{ij} a(P_j E_{j-1} v, E_{j-1} v)^{1/2} \Big]^2.
\end{equation*}
Wenn wir in der Summe bis $K$ gehen wird der rechte Term nur noch größer.
......@@ -3540,74 +3539,38 @@ Außerdem summieren wir über $i$ und erhalten
\label{eq:mult_schwarz_intermediate_result_1}
\sum_{i=1}^K a(P_i v, v)
\le
2 \sum_{i=1}^K a(P_i P_0 v, P_0 v)
+ 2 \sum_{i=1}^K \Big[ \sum_{j=1}^K \mathcal{E}_{ij} a(P_j E_{j-1} v, E_{j-1} v)^{1/2} \Big]^2.
\sum_{i=1}^K \Big[ \sum_{j=1}^K \mathcal{E}_{ij} a(P_j E_{j-1} v, E_{j-1} v)^{1/2} \Big]^2.
\end{equation}
\bigskip
Wir schätzen nun die zwei Terme auf der rechten Seite separat ab.
Wir schätzen nun den Term auf der rechten Seite ab.
\begin{enumerate}
\item Aus dem Beweis für das additive Verfahren kennen wir
Gleichung~\eqref{eq:bound_sum_of_projections_no_coarse_space}, welche besagt dass
\begin{equation*}
a\Big(\sum_{i=1}^K P_i v,v\Big) \le \rho(\mathcal{E}) a(v,v),
\end{equation*}
und somit
\begin{align*}
a\Big(\sum_{i=1}^K P_i P_0 v, P_0 v\Big)
& \le
\rho(\mathcal{E}) a(P_0 v, P_0 v)
=
\rho(\mathcal{E}) a(P_0v,v).
\end{align*}
\item
Sei $x$ der Vektor mit Einträgen $a(P_j E_{j-1} v, E_{j-1} v)^{1/2}$.
Der rechte Term in \eqref{eq:mult_schwarz_intermediate_result_1} hat dann die Form
Der Term in \eqref{eq:mult_schwarz_intermediate_result_1} hat dann die Form
\begin{align*}
2 \sum_{i=1}^K \Big[ \sum_{j=1}^K \mathcal{E}_{ij} a(P_j E_{j-1} v, E_{j-1} v)^{1/2} \Big]^2
\sum_{i=1}^K \Big[ \sum_{j=1}^K \mathcal{E}_{ij} a(P_j E_{j-1} v, E_{j-1} v)^{1/2} \Big]^2
=
2 \sum_{i=1}^K (\mathcal{E}x)_i^2 \\
\sum_{i=1}^K (\mathcal{E}x)_i^2 \\
\le
2 \rho(\mathcal{E})^2 x^T x
\rho(\mathcal{E})^2 x^T x
=
2 \rho(\mathcal{E})^2 \sum_{i=1}^K a(P_i E_{i-1} v, E_{i-1} v).
\rho(\mathcal{E})^2 \sum_{i=1}^K a(P_i E_{i-1} v, E_{i-1} v).
\end{align*}
\end{enumerate}
Zusammen erhält man also
Man erhält also
\begin{align*}
\sum_{i=1}^K a(P_i v,v)
& \le
2 \rho(\mathcal{E}) a(P_0 v,v) + 2 \rho(\mathcal{E})^2 \sum_{i=1}^K a(P_i E_{i-1} v, E_{i-1} v) \\
\rho(\mathcal{E})^2 \sum_{i=1}^K a(P_i E_{i-1} v, E_{i-1} v) \\
& \le
2 \rho(\mathcal{E})^2 \sum_{i=0}^K a(P_i E_{i-1} v, E_{i-1} v),
\rho(\mathcal{E})^2 \sum_{i=0}^K a(P_i E_{i-1} v, E_{i-1} v).
\end{align*}
wobei wir benutzt haben dass
\begin{equation*}
\rho(\mathcal{E}) \ge 1,
\qquad\text{also}\qquad
\rho(\mathcal{E})^2 \ge \rho(\mathcal{E})
\end{equation*}
und
\begin{equation*}
a(P_0 v,v) = a(P_0 E_{-1}v, E_{-1} v).
\end{equation*}
\bigskip
Links fehlt noch $a(P_0 v,v)$.
Also addieren wir links und rechts $a(P_0 v,v)$, und schätzen auf die einfachste Art ab
\begin{equation*}
\sum_{i=0}^K a(P_i v,v)
\le
[1+ 2 \rho(\mathcal{E})^2] \sum_{i=0}^K a(P_i E_{i-1} v, E_{i-1} v).
\end{equation*}
\bigskip
......@@ -3615,11 +3578,11 @@ Jetzt führen wir alles zusammen.
Von Lemma~\ref{lem:hs_multiplicative_schwarz} wissen wir dass
\begin{equation*}
a(BAv,v) \ge \sum_{i=0}^K a(P_i E_{i-1}v, E_{i-1} v),
a(BAv,v) \ge \sum_{i=1}^K a(P_i E_{i-1}v, E_{i-1} v),
\end{equation*}
und somit
\begin{equation*}
a(BAv,v) \ge \frac{1}{1+ 2 \rho(\mathcal{E})^2} \sum_{i=0}^K a(P_i v,v).
a(BAv,v) \ge \frac{1}{\rho(\mathcal{E})^2} \sum_{i=1}^K a(P_i v,v).
\end{equation*}
......@@ -3632,12 +3595,11 @@ Andererseits wissen wir aus dem Beweis für das additive Verfahren, dass
Also folgt
\begin{equation*}
\frac{1}{(1+2 \rho(\mathcal{E})^2)C_0^2} a(v,v) \le a(BAv,v)
\frac{1}{\rho(\mathcal{E})^2 C_0^2} a(v,v) \le a(BAv,v),
\end{equation*}
Also
und somit
\begin{equation*}
\lambda_\text{min} \ge \frac{1}{(1+2 \rho(\mathcal{E})^2)C_0^2}.
\lambda_\text{min} \ge \frac{1}{\rho(\mathcal{E})^2 C_0^2}.
\qedhere
\end{equation*}
\end{proof}
......@@ -3645,7 +3607,7 @@ Also
Wir vergleichen die Resultate:
\begin{itemize}
\item additiv: $\kappa \le \rho(\mathcal{E})C_0^2$
\item multiplikativ: $\kappa \le {2\rho(\mathcal{E})^2C_0^2}$
\item multiplikativ: $\kappa \le {\rho(\mathcal{E})^2C_0^2}$
\end{itemize}
Nach unserer Analyse ist das multiplikative Verfahren also \emph{schlechter}!
......
Supports Markdown
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment