Skip to content
GitLab
Menu
Projects
Groups
Snippets
Help
Help
Support
Community forum
Keyboard shortcuts
?
Submit feedback
Contribute to GitLab
Sign in
Toggle navigation
Menu
Open sidebar
Sander, Oliver
skript-mehrgitter
Commits
6100df57
Commit
6100df57
authored
May 04, 2021
by
Sander, Oliver
Browse files
Verbesserungen: Konvergenz der abstrakten Schwarz-Verfahren
parent
96346df5
Pipeline
#6296
passed with stage
in 3 minutes and 15 seconds
Changes
1
Pipelines
1
Hide whitespace changes
Inline
Side-by-side
skript-mehrgitter-sander.tex
View file @
6100df57
...
...
@@ -2890,6 +2890,7 @@ mit
\subsection
{
Das multiplikative Schwarz-Verfahren
}
\label
{
sec:intro
_
multiplicative
_
schwarz
}
Das multiplikative Schwarz-Verfahren ist
\begin{equation*}
...
...
@@ -3181,8 +3182,8 @@ Kapitel~\ref{sec:iterative_loeser} direkter hätte.}
\todo
[inline]
{
Zeige dass
$
B
_
\text
{
add
}
A
$
symmetrisch ist.
}
Hier wird
benutzt dass
$
P
$
selbstadjungiert bzgl.
\
$
a
(
\cdot
,
\cdot
)
$
ist.
In der Tat gilt für all
$
u,v
\in
V
$
In Folgenden wird ab und zu
benutzt dass
$
P
$
selbstadjungiert bzgl.
\
$
a
(
\cdot
,
\cdot
)
$
ist.
In der Tat gilt für all
$
u,v
\in
X
$
\begin{equation*}
a(P
_
i u,v) = a(v,P
_
i u) = a(P
_
iv,P
_
i u) = a(P
_
i u, P
_
i v) = a(u,P
_
i v).
\end{equation*}
...
...
@@ -3202,28 +3203,28 @@ Dieses Resultat basiert auf folgendem Hilfssatz:
\begin{equation*}
a(P
^{
-1
}
u,u)
=
\min
_{
u
_
i
\in
V
_
i
,
u =
\sum
_{
i=1
}^
K u
_
i
}
\min
_{
\substack
{
u
_
i
\in
X
_
i
\\
u =
\sum
_{
i=1
}^
K u
_
i
}
}
\sum
_{
i=1
}^
K a(u
_
i,u
_
i).
\end{equation*}
\end{hilfssatz}
\emph
{
Beachte:
}
Dies gilt für alle Familien von Räumen
$
\{
V
_
i
\}
$
,
\emph
{
Beachte:
}
Dies gilt für alle Familien von Räumen
$
\{
X
_
i
\}
$
,
unabhängig von den Werten der Konstanten
$
C
_
0
$
und
$
\mathcal
{
E
}_{
ij
}$
.
\begin{proof}
Wir
machen folgenden Ansatz
:
Wir
beweisen mit folgender Strategie
:
\begin{enumerate}
\item
Konstruiere eine Zerlegung, für die Gleichheit gilt.
\item
Zeige dann, dass alle anderen Zerlegungen größere Werte annehmen.
\item
Zeige dann, dass alle anderen Zerlegungen größere Werte
als
$
a
(
P
^{
-
1
}
u,u
)
$
annehmen.
\end{enumerate}
\emph
{
Teil~1:
}
\begin{itemize}
\item
Setze
$
u
_
i
\colonequals
P
_
i P
^{
-
1
}
u
$
\item
Setze
$
u
_
i
\colonequals
P
_
i P
^{
-
1
}
u
$
.
%
\item
Es gilt dann
\begin{equation*}
\sum
_{
i=1
}^
K u
_
i =
\
Big
(
\sum
_
i P
_
i
\Big
)
P
^{
-1
}
u = u,
\sum
_{
i=1
}^
K u
_
i =
\
sum
_{
i=1
}^
K P
_
i
P
^{
-1
}
u = u,
\end{equation*}
%
und
...
...
@@ -3242,7 +3243,7 @@ unabhängig von den Werten der Konstanten $C_0$ und $\mathcal{E}_{ij}$.
Wir zeigen jetzt
\begin{equation*}
a(P
^{
-1
}
u,u)
\le
\sum
_{
i=1
}^
K a(u
_
i,u
_
i)
\qquad
\forall
u
_
i
\in
V
_
i,
\quad
\sum
_{
i=1
}^
K u
_
i = u.
\qquad
\forall
u
_
i
\in
X
_
i,
\quad
\sum
_{
i=1
}^
K u
_
i = u.
\end{equation*}
Als erstes man man direkt ausrechnen, dass
...
...
@@ -3262,7 +3263,7 @@ unabhängig von den Werten der Konstanten $C_0$ und $\mathcal{E}_{ij}$.
\qquad
\text
{
(Def.
\
von
$
P
_
i
$
)
}
\\
&
=
a(P
^{
-1
}
u, u)
^{
1/2
}
\bigg
(
\sum
_{
i=1
}^
K a(u
_
i, u
_
i)
\bigg
)
^{
1/2
}
\bigg
(
\sum
_{
i=1
}^
K a(u
_
i, u
_
i)
\bigg
)
^{
1/2
}
.
\end{align*}
%
Die Behauptung folgt, wenn man auf beiden Seiten quadriert und durch
$
a
(
P
^{
-
1
}
u,u
)
$
teilt.
...
...
@@ -3270,7 +3271,9 @@ unabhängig von den Werten der Konstanten $C_0$ und $\mathcal{E}_{ij}$.
Mit dem Hilfssatz beweisen wir jetzt
\begin{equation*}
\frac
{
1
}{
\lambda
_
\text
{
min
}}
\le
C
_
0
^
2.
\frac
{
1
}{
\lambda
_
\text
{
min
}
(B
_
\text
{
add
}
A)
}
=
\frac
{
1
}{
\lambda
_
\text
{
min
}
(P)
}
\le
C
_
0
^
2.
\end{equation*}
\begin{proof}
Wenn
$
\lambda
$
Eigenwert von
$
P
$
ist, so ist
$
\lambda
^{
-
1
}$
Eigenwert von
$
P
^{
-
1
}$
.
...
...
@@ -3283,13 +3286,13 @@ Mit dem Hilfssatz beweisen wir jetzt
&
=
\lambda
_
\text
{
max
}
(P
^{
-1
}
)
\\
&
=
\
max
_{
u
\neq
0
}
\frac
{
a(P
^{
-1
}
u,u)
}{
a(u,u)
}
\qquad
\text
{
(Rayleigh-Quotient)
}
\\
\
sup
_{
u
\neq
0
}
\frac
{
a(P
^{
-1
}
u,u)
}{
a(u,u)
}
\qquad
\text
{
(Rayleigh-Quotient)
}
\\
&
=
\
max
_{
u
\neq
0
}
\frac
{
\displaystyle
\min
_{
u
_
i
\in
V
_
i,
\sum
_{
i=1
}^
K
{
u
_
i = u
}}
\sum
_{
i=1
}^
K a(u
_
i,u
_
i)
}{
a(u,u)
}
\qquad
\text
{
[
Hilfssatz~
\ref
{
lem:aPinvuu
_
has
_
minimal
_
energy
}
]
}
\\
\
sup
_{
u
\neq
0
}
\frac
{
\displaystyle
\min
_{
u
_
i
\in
X
_
i,
\sum
_{
i=1
}^
K
{
u
_
i = u
}}
\sum
_{
i=1
}^
K a(u
_
i,u
_
i)
}{
a(u,u)
}
\qquad
\text
{
(
Hilfssatz~
\ref
{
lem:aPinvuu
_
has
_
minimal
_
energy
}
)
}
\\
&
\le
\
max
_{
u
\neq
0
}
\frac
{
C
_
0
^
2 a(u,u)
}{
a(u,u)
}
\qquad
\text
{
(Def.~
\ref
{
def:TRK
_
annahme
_
1
}}
\\
\
sup
_{
u
\neq
0
}
\frac
{
C
_
0
^
2 a(u,u)
}{
a(u,u)
}
\qquad
\text
{
(Def.~
\ref
{
def:TRK
_
annahme
_
1
}
)
}
\\
&
=
C
_
0
^
2.
\qedhere
...
...
@@ -3299,39 +3302,29 @@ Mit dem Hilfssatz beweisen wir jetzt
Als zweiten Teil beweisen wir die Abschätzung für den
\emph
{
größten
}
Eigenwert
von
$
P
_
\text
{
add
}
=
B
_
\text
{
add
}
A
$
.
von
$
B
_
\text
{
add
}
A
$
.
\begin{lemma}
\begin{equation*}
\lambda
_
\text
{
max
}
\le
\rho
(
\mathcal
{
E
}
).
\lambda
_
\text
up
{
max
}
(B
_
\textup
{
add
}
A)
\le
\rho
(
\mathcal
{
E
}
).
\end{equation*}
\end{lemma}
\todo
[inline]
{
Erkläre
: Ohne die verstärkte C
S-Ungleichung würde
$
\lambda
_
\text
{
max
}$
von
$
K
$
abhängen.
}
Zur Erinnerung
: Ohne die verstärkte C
auchy-Schwarz-Ungleichung hätte man hier
eine Abhängigkeit von
$
K
$
.
\begin{proof}
Wir schätzen zuerst den größten Eigenwert von
$
\widehat
{
P
}^
2
\colonequals
(
\sum
_{
i
=
1
}^
K P
_
i
)
^
2
$
ab.
Dabei werden wir benutzen dass
\begin{equation*}
a(
\widehat
{
P
}^
2 v,v) = a(
\widehat
{
P
}
v,
\widehat
{
P
}
v).
\end{equation*}
\todo
[inline]
{
Achtung: Es ist
$
\widehat
P
\neq
P
$
nur dann wenn der Spezialraum
$
V
_
0
$
dabei ist.
}
Wir beginnen deshalb mit
Wir beginnen mit
\begin{align*}
a(
\widehat
{
P
}
v,
\widehat
{
P
}
v)
&
=
a
\Big
(
\sum
_{
i=1
}^
K P
_
i v,
\sum
_{
i=1
}^
K P
_
i v
\Big
)
\\
a(Pv,Pv)
&
=
\sum
_{
i,j=1
}^
K a(P
_
i v, P
_
j v)
\\
&
\le
\sum
_{
i,j=1
}^
K
\mathcal
{
E
}_{
ij
}
a(P
_
i v, P
_
i v)
^{
1/2
}
a(P
_
j v, P
_
j v)
^{
1/2
}
\qquad
\text
{
(Def.
\
von
$
\mathcal
{
E
}$
)
}
\\
&
\le
\rho
(
\mathcal
{
E
}
)
\sum
_{
i=1
}
a(P
_
iv, P
_
i v)
\rho
(
\mathcal
{
E
}
)
\sum
_{
i=1
}
^
K
a(P
_
iv, P
_
i v)
\qquad
\text
{
(wegen
$
x
^
T E x
\le
\rho
(
E
)
x
^
T x
$
) für jede Matrix
$
E
$
)
}
\\
&
=
\rho
(
\mathcal
{
E
}
)
\sum
_{
i=1
}^
K a(v,P
_
i v)
...
...
@@ -3339,62 +3332,75 @@ von $K$ abhängen.}
&
=
\rho
(
\mathcal
{
E
}
) a
\Big
(v,
\sum
_{
i=1
}^
K P
_
i v
\Big
)
\\
&
\le
\rho
(
\mathcal
{
E
}
) a(v,v)
^{
1/2
}
a(
\widehat
{
P
}
v,
\widehat
{
P
}
v)
^{
1/2
}
\rho
(
\mathcal
{
E
}
) a(v,v)
^{
1/2
}
a(
Pv,P
v)
^{
1/2
}
\qquad
\text
{
(Cauchy--Schwarz)
}
.
\end{align*}
\begin{itemize}
\item
Es folgt also
\begin{equation*}
a(
\widehat
{
P
}^
2v,v) = a(
\widehat
{
P
}
v,
\widehat
{
P
}
v)
\le
\rho
(
\mathcal
{
E
}
)
^
2 a(v,v).
a(
P
^
2v,v) = a(Pv,P
v)
\le
\rho
(
\mathcal
{
E
}
)
^
2 a(v,v).
\end{equation*}
\item
Der größte Eigenwert von
$
\widehat
{
P
}
^
2
$
ist also
$
\le
\rho
(
\mathcal
{
E
}
)
^
2
$
.
\item
Der größte Eigenwert von
$
P
^
2
$
ist also
$
\le
\rho
(
\mathcal
{
E
}
)
^
2
$
.
%
\item
Der größte Eigenwert von
$
\widehat
{
P
}$
ist also
$
\le
\rho
(
\mathcal
{
E
}
)
$
,
es gilt also insbesondere
\begin{equation}
\label
{
eq:bound
_
sum
_
of
_
projections
_
no
_
coarse
_
space
}
a(
\widehat
{
P
}
v,v)
\le
\rho
(
\mathcal
{
E
}
) a(v,v).
\end{equation}
\item
Der größte Eigenwert von
$
P
$
ist also
$
\le
\rho
(
\mathcal
{
E
}
)
$
.
\qedhere
\end{itemize}
\end{proof}
\todo
[inline]
{
Den letzten Schritt nochmal nachprüfen!
}
Da der größte Eigenwert von
$
P
$
also kleiner als
$
\rho
(
\mathcal
{
E
}
)
$
ist folgt insbesondere
\begin{equation}
\label
{
eq:bound
_
sum
_
of
_
projections
_
no
_
coarse
_
space
}
a(P v,v)
\le
\rho
(
\mathcal
{
E
}
) a(v,v).
\end{equation}
Das werden wir später benutzen.
\subsection
{
Konvergenz der abstrakten multiplikativen Schwarz-Methode
}
Wir beweisen jetzt ganz ähnlich die Konvergenz der symmetrischen
multiplikativen Schwarz-Methode
\begin{equation*}
B
_
\text
{
mult
}
A
\colonequals
I - (I-P
_
1)
\cdots
(I-P
_
K)(I-P
_
K)
\cdots
(I-P
_
1).
\end{equation*}
Diese entspricht dem Verfahren aus Kapitel~
\ref
{
sec:intro
_
multiplicative
_
schwarz
}
,
gefolgt von einer Iteration mit umgekehrter Reihenfolge der Projektionen.
\begin{theorem}
\label
{
satz:abstrakte
_
multiplikative
_
schwarz
_
methode
_
konvergiert
}
Für die symmetrische multiplikative Schwarz-Methode gilt
\begin{align*}
\lambda
_
\text
{
max
}
(B
_
\textnormal
{
mult
}
A)
&
=
\lambda
_
\text
{
max
}
\big
[I - (I-P_0)\cdots(I-P_K)(I-P_p)\cdots(I-P_0)\big]
\lambda
_
\textup
{
max
}
(B
_
\textnormal
{
mult
}
A)
\le
1
\\
1
%
\
lambda
_
\text
{
min
}
(B
_
\textnormal
{
mult
}
A)
&
=
\lambda
_
\text
{
min
}
\big
[I - (I-P_0)\cdots(I-P_K)(I-P_K)\cdots(I-P_0)\big]
\
qquad
\qquad
%
\lambda
_
\text
up
{
min
}
(B
_
\textnormal
{
mult
}
A)
\ge
\frac
{
1
}{
(1+2
\rho
(
\mathcal
{
E
}
)
^
2) C
_
0
^
2
}
\\
\frac
{
1
}{
\rho
(
\mathcal
{
E
}
)
^
2 C
_
0
^
2
}
,
\end{align*}
zusammen also
\begin{align*}
%
\kappa
(B
_
\textnormal
{
mult
}
A)
&
=
\kappa
\big
[I - (I-P_0)\cdots(I-P_K)(I-P_K)\cdots(I-P_0)\big]
\le
(1+
\rho
(
\mathcal
{
E
}
)
^
2) C
_
0
^
2.
&
\le
\rho
(
\mathcal
{
E
}
)
^
2 C
_
0
^
2.
\end{align*}
\end{theorem}
%
Bevor wir dieses Ergebnis beweisen führen wir noch etwas Notation ein.
\begin{itemize}
\item
Sei
$
E
_
i
=
(
I
-
P
_
i
)
\dots
(
I
-
P
_
0
)
$
und
$
E
_
{
-
1
}
=
I
$
.
\item
Sei
$
E
_
i
\colonequals
(
I
-
P
_
i
)
\dots
(
I
-
P
_
1
)
$
und
$
E
_
0
=
I
$
.
%
\item
Sei
$
E
_
K
^
T
$
die Adjungierte von
$
E
_
K
$
bzgl.
\
$
a
(
\cdot
,
\cdot
)
$
,
also
$
a
(
E
_
K v,w
)
=
a
(
v,E
_
K
^
T w
)
\;
\forall
v,w
\in
V
$
.
also
$
a
(
E
_
K v,w
)
=
a
(
v,E
_
K
^
T w
)
$
für alle
$
v,w
\in
X
$
.
%
\item
Es ist dann
$
B
_
\text
{
mult
}
A
=
I
-
E
_
K
^
T E
_
K
$
.
\item
Es ist dann
$
B
_
\text
{
mult
}
A
=
I
-
E
_
K
^
T E
_
K
$
; das ist offenkundig selbstadjungiert
.
%
\item
Wir schreiben jetzt nur noch
$
BA
$
statt
$
B
_
\text
{
mult
}
A
$
.
\end{itemize}
...
...
@@ -3402,11 +3408,11 @@ Bevor wir dieses Ergebnis beweisen führen wir noch etwas Notation ein.
Weiterhin beweisen wir noch folgendes kurzes Hilfsresultat.
\begin{lemma}
\label
{
lem:hs
_
multiplicative
_
schwarz
}
Für alle
$
v
\in
X
$
ist
\begin{equation*}
a(BAv,v)
\ge
\sum
_{
i=
0
}^
K a(E
_{
i-1
}
v, P
_
i E
_{
i-1
}
v).
a(BAv,v)
=
\sum
_{
i=
1
}^
K a(E
_{
i-1
}
v, P
_
i E
_{
i-1
}
v).
\end{equation*}
\end{lemma}
\todo
[inline]
{
Prüfen: Mit exakten Bilinearformen bekommt man anscheinend Gleichheit!
}
\begin{proof}
Zunächst ist
\begin{align*}
...
...
@@ -3414,22 +3420,22 @@ Zunächst ist
&
=
a(v,v) - a(E
_
K v, E
_
K v)
\\
&
=
\sum
_{
i=
0
}^
K
\Big
[ a(E_{i-1} v, E_{i-1} v) - a(E_i v, E_i v) \big]
\sum
_{
i=
1
}^
K
\Big
[ a(E_{i-1} v, E_{i-1} v) - a(E_i v, E_i v) \big]
.
\qquad
\text
{
(Teleskopsumme)
}
.
\text
{
(Teleskopsumme)
}
\end{align*}
Da
$
E
_
i
=
(
I
-
P
_
i
)
E
_{
i
-
1
}
=
E
_{
i
-
1
}
-
P
_
i
(
E
_{
i
-
1
}
)
$
ist das gleich
Da
$
E
_
i
=
(
I
-
P
_
i
)
E
_{
i
-
1
}
=
E
_{
i
-
1
}
-
P
_
i
(
E
_{
i
-
1
}
)
$
ist
ist
das gleich
\begin{equation*}
=
\sum
_{
i=
0
}^
K
\Big
[ a(E_{i-1} v, E_{i-1} v) - a(E_{i-1} - P_i E_{i-1} v, E_{i-1} - P_i E_{i-1} v) \Big]
.
=
\sum
_{
i=
1
}^
K
\Big
[ a(E_{i-1} v, E_{i-1} v) - a(E_{i-1} - P_i E_{i-1} v, E_{i-1} - P_i E_{i-1} v) \Big]
.
\end{equation*}
Ausmultiplizieren der zweiten Bilinearform und kürzen (
$
P
_
i
$
ist selbstadjungiert!)
\todo
[inline]
{
Wo steht das?
}
\begin{align*}
a(BAv,v)
&
=
\sum
_{
i=
0
}^
K
\Big
[ 2 a(E
_{
i-1
}
v, P
_
i E
_{
i-1
}
v)
\sum
_{
i=
1
}^
K
\Big
[ 2 a(E
_{
i-1
}
v, P
_
i E
_{
i-1
}
v)
-
\underbrace
{
a(P
_
i E
_{
i-1
}
v, P
_
i E
_{
i-1
}
v)
}_{
= a(E
_{
i-1
}
v, P
_
i E
_{
i-1
}
v)
}
\Big
]
\\
&
=
\sum
_{
i=
0
}^
p a(E
_{
i-1
}
v, P
_
i E
_{
i-1
}
v).
\sum
_{
i=
1
}^
p a(E
_{
i-1
}
v, P
_
i E
_{
i-1
}
v).
\qedhere
\end{align*}
\end{proof}
...
...
@@ -3440,7 +3446,7 @@ Damit können wir das eigentliche Resultat zeigen.
Wir schätzen wieder den größten und den kleinsten Eigenwert separat ab.
\emph
{
Teil 1:
}
Wir zeigen zuerst
:
$
\lambda
_
\text
{
max
}
(
BA
)
\le
1
$
, wie üblich mit dem
Wir zeigen zuerst
$
\lambda
_
\text
{
max
}
(
BA
)
\le
1
$
, wie üblich mit dem
Rayleigh-Quotienten:
\begin{align*}
\lambda
_
\text
{
max
}
(BA)
...
...
@@ -3459,79 +3465,72 @@ Rayleigh-Quotienten:
\emph
{
Teil 2:
}
Jetzt zeigen wir dass
\begin{equation*}
\frac
{
1
}{
[1+2
\rho
(
\mathcal
{
E
}
)
^
2
]
C
_
0
^
2
}
\frac
{
1
}{
\rho
(
\mathcal
{
E
}
)
^
2
C
_
0
^
2
}
\le
\lambda
_
\text
{
min
}
(BA),
\end{equation*}
indem wir
\begin{equation*}
\frac
{
1
}{
[1+2
\rho
(
\mathcal
{
E
}
)
^
2
]
C
_
0
^
2
}
\frac
{
1
}{
\rho
(
\mathcal
{
E
}
)
^
2
C
_
0
^
2
}
\le
\frac
{
a(BAv,v)
}{
a(v,v)
}
\qquad
\forall
v
\in
V
\forall
v
\in
X
\end{equation*}
zeigen. Das ist aufwändiger.
\bigskip
Wir schätzen zunächst
$
a
(
P
_
i v,v
)
$
ab.
Wir benutzen dazu dass
Wir schätzen zunächst
$
a
(
P
_
i v,v
)
$
ab. Dazu benutzen wir dass
\begin{equation*}
I = P
_
0 + E
_{
i-1
}
+
\sum
_{
j=1
}^{
i-1
}
P
_
j E
_{
j-1
}
.
I = E
_{
i-1
}
+
\sum
_{
j=1
}^{
i-1
}
P
_
j E
_{
j-1
}
\qquad
\text
{
für alle
$
i
=
1
,
\dots
,K
$}
.
\end{equation*}
[Beweis mittels vollständiger Induktion]
\todo
[inline]
{
Beweis nochmal nachrechnen!
}
Einsetzen:
\begin{align*}
a(P
_
i v,v)
&
=
a(P
_
i v, P
_
0 v) +
a(P
_
i v, E
_{
i-1
}
v) +
\sum
_{
j=1
}^{
i-1
}
a(P
_
i v, P
_
j E
_{
j-1
}
v)
\\
a(P
_
i v, E
_{
i-1
}
v) +
\sum
_{
j=1
}^{
i-1
}
a(P
_
i v, P
_
j E
_{
j-1
}
v)
\\
&
\le
a (v, P
_
i P
_
0 v) +
a(v, P
_
i E
_{
i-1
}
v)
\qquad
\text
{
Selbstadjungiertheit von
$
P
_
i
$}
\\
a(v, P
_
i E
_{
i-1
}
v)
\qquad
\text
{
Selbstadjungiertheit von
$
P
_
i
$}
\\
&
\quad
+
\sum
_{
j=1
}^{
i-1
}
\mathcal
{
E
}_{
ij
}
a(P
_
iv,P
_
iv)
^{
1/2
}
a(P
_
j E
_{
j-1
}
v, P
_
j E
_{
j-1
}
v)
^{
1/2
}
\qquad
\text
{
[
Annahme 2
]
}
\qquad
\text
{
(
Annahme 2
)
}
\end{align*}
Wir wollen das
$
a
(
P
_
i v, P
_
i v
)
^{
1
/
2
}$
ausklammern.
Da
\begin{equation*}
a(v,P
_
i
P
_
0
v) = a
_
i
(P
_
iv,P
_
i
P
_
0
v)
\le
a
_
i
(P
_
iv,P
_
iv)
^{
1/2
}
a
_
i
(P
_
i
P
_
0 v,P
_
i P
_
0
v)
^{
1/2
}
a(v,P
_
i
E
_{
i-1
}
v) = a(P
_
iv,P
_
i
E
_{
i-1
}
v)
\le
a(P
_
iv,P
_
iv)
^{
1/2
}
a(P
_
i
E
_{
i-1
}
v,P
_
i E
_{
i-1
}
v)
^{
1/2
}
\end{equation*}
und ähnlich für
$
a
(
v,P
_
i E
_{
i
-
1
}
v
)
$
folgt
folgt
\begin{align*}
a(P
_
i v,v)
&
\le
a (P
_
i v, P
_
i v)
^{
1/2
}
\Big
[ a (P
_
i P
_
0 v, P
_
i P
_
0 v)
^{
1/2
}
+ a (P
_
i E
_{
i-1
}
v, P
_
i E
_{
i-1
}
v)
^{
1/2
}
\\
&
\quad
\Big
[ a (P
_
i E
_{
i-1
}
v, P
_
i E
_{
i-1
}
v)
^{
1/2
}
+
\sum
_{
j=1
}^{
i-1
}
\mathcal
{
E
}_{
ij
}
a (P
_
j E
_{
j-1
}
v, P
_
j E
_{
j-1
}
v)
^{
1/2
}
\Big
]
\\
&
=
a (P
_
i v, v)
^{
1/2
}
\Big
[ a (P
_
i P
_
0 v, P
_
0 v)
^{
1/2
}
+ a (P
_
i E
_{
i-1
}
v, E
_{
i-1
}
v)
^{
1/2
}
\\
&
\quad
\Big
[ a (P
_
i E
_{
i-1
}
v, E
_{
i-1
}
v)
^{
1/2
}
+
\sum
_{
j=1
}^{
i-1
}
\mathcal
{
E
}_{
ij
}
a (P
_
j E
_{
j-1
}
v, E
_{
j-1
}
v)
^{
1/2
}
\Big
].
\end{align*}
Der
zweit
e Term kann in die Summe gezogen werden:
Der
mittler
e Term kann in die Summe gezogen werden:
\begin{equation*}
a(P
_
i,v)
\le
a(P
_
iv,v)
^{
1/2
}
\
Big
[ a(P_i P_0 v, P_0 v)^{1/2} + b m
\sum_{j=1}^i \mathcal{E}_{ij} a(P_j E_{j-1} v, E_{j-1} v)^{1/2}
\Big]
.
\
cdot
\sum
_{
j=1
}^
i
\mathcal
{
E
}_{
ij
}
a(P
_
j E
_{
j-1
}
v, E
_{
j-1
}
v)
^{
1/2
}
.
\end{equation*}
Mit dem üblichen
\glqq
Quadrieren-und-Teilen
\grqq
-Trick erhält man
\begin{equation*}
a(P
_
i v, v)
\le
\Big
[ a(P_i P_0 v, P_0 v)^{1/2} + \sum_{j=1}^i \mathcal{E}_{ij} a(P_j E_{j-1} v, E_{j-1} v)^{1/2} \Big]
^
2,
\end{equation*}
und da
$
(
a
+
b
)
^
2
\le
(
a
+
b
)
^
2
+
(
a
-
b
)
^
2
=
2
a
^
2
+
2
b
^
2
$
ist folgt
\begin{equation*}
a(P
_
i v, v)
\le
2 a(P
_
i P
_
0 v, P
_
0 v) + 2
\Big
[ \sum_{j=1}^i \mathcal{E}_{ij} a(P_j E_{j-1} v, E_{j-1} v)^{1/2} \Big]
^
2.
\Big
[ \sum_{j=1}^i \mathcal{E}_{ij} a(P_j E_{j-1} v, E_{j-1} v)^{1/2} \Big]
^
2.
\end{equation*}
Wenn wir in der Summe bis
$
K
$
gehen wird der rechte Term nur noch größer.
...
...
@@ -3540,74 +3539,38 @@ Außerdem summieren wir über $i$ und erhalten
\label
{
eq:mult
_
schwarz
_
intermediate
_
result
_
1
}
\sum
_{
i=1
}^
K a(P
_
i v, v)
\le
2
\sum
_{
i=1
}^
K a(P
_
i P
_
0 v, P
_
0 v)
+ 2
\sum
_{
i=1
}^
K
\Big
[ \sum_{j=1}^K \mathcal{E}_{ij} a(P_j E_{j-1} v, E_{j-1} v)^{1/2} \Big]
^
2.
\sum
_{
i=1
}^
K
\Big
[ \sum_{j=1}^K \mathcal{E}_{ij} a(P_j E_{j-1} v, E_{j-1} v)^{1/2} \Big]
^
2.
\end{equation}
\bigskip
Wir schätzen nun d
ie zwei
Term
e
auf der rechten Seite
separat
ab.
Wir schätzen nun d
en
Term auf der rechten Seite ab.
\begin{enumerate}
\item
Aus dem Beweis für das additive Verfahren kennen wir
Gleichung~
\eqref
{
eq:bound
_
sum
_
of
_
projections
_
no
_
coarse
_
space
}
, welche besagt dass
\begin{equation*}
a
\Big
(
\sum
_{
i=1
}^
K P
_
i v,v
\Big
)
\le
\rho
(
\mathcal
{
E
}
) a(v,v),
\end{equation*}
und somit
\begin{align*}
a
\Big
(
\sum
_{
i=1
}^
K P
_
i P
_
0 v, P
_
0 v
\Big
)
&
\le
\rho
(
\mathcal
{
E
}
) a(P
_
0 v, P
_
0 v)
=
\rho
(
\mathcal
{
E
}
) a(P
_
0v,v).
\end{align*}
\item
Sei
$
x
$
der Vektor mit Einträgen
$
a
(
P
_
j E
_{
j
-
1
}
v, E
_{
j
-
1
}
v
)
^{
1
/
2
}$
.
Der
rechte
Term in
\eqref
{
eq:mult
_
schwarz
_
intermediate
_
result
_
1
}
hat dann die Form
Der Term in
\eqref
{
eq:mult
_
schwarz
_
intermediate
_
result
_
1
}
hat dann die Form
\begin{align*}
2
\sum
_{
i=1
}^
K
\Big
[ \sum_{j=1}^K \mathcal{E}_{ij} a(P_j E_{j-1} v, E_{j-1} v)^{1/2} \Big]
^
2
\sum
_{
i=1
}^
K
\Big
[ \sum_{j=1}^K \mathcal{E}_{ij} a(P_j E_{j-1} v, E_{j-1} v)^{1/2} \Big]
^
2
=
2
\sum
_{
i=1
}^
K (
\mathcal
{
E
}
x)
_
i
^
2
\\
\sum
_{
i=1
}^
K (
\mathcal
{
E
}
x)
_
i
^
2
\\
\le
2
\rho
(
\mathcal
{
E
}
)
^
2 x
^
T x
\rho
(
\mathcal
{
E
}
)
^
2 x
^
T x
=
2
\rho
(
\mathcal
{
E
}
)
^
2
\sum
_{
i=1
}^
K a(P
_
i E
_{
i-1
}
v, E
_{
i-1
}
v).
\rho
(
\mathcal
{
E
}
)
^
2
\sum
_{
i=1
}^
K a(P
_
i E
_{
i-1
}
v, E
_{
i-1
}
v).
\end{align*}
\end{enumerate}
Zusamme
n erhält
man
also
Ma
n erhält also
\begin{align*}
\sum
_{
i=1
}^
K a(P
_
i v,v)
&
\le
2
\rho
(
\mathcal
{
E
}
) a(P
_
0 v,v) + 2
\rho
(
\mathcal
{
E
}
)
^
2
\sum
_{
i=1
}^
K a(P
_
i E
_{
i-1
}
v, E
_{
i-1
}
v)
\\
\rho
(
\mathcal
{
E
}
)
^
2
\sum
_{
i=1
}^
K a(P
_
i E
_{
i-1
}
v, E
_{
i-1
}
v)
\\
&
\le
2
\rho
(
\mathcal
{
E
}
)
^
2
\sum
_{
i=0
}^
K a(P
_
i E
_{
i-1
}
v, E
_{
i-1
}
v)
,
\rho
(
\mathcal
{
E
}
)
^
2
\sum
_{
i=0
}^
K a(P
_
i E
_{
i-1
}
v, E
_{
i-1
}
v)
.
\end{align*}
wobei wir benutzt haben dass
\begin{equation*}
\rho
(
\mathcal
{
E
}
)
\ge
1,
\qquad\text
{
also
}
\qquad
\rho
(
\mathcal
{
E
}
)
^
2
\ge
\rho
(
\mathcal
{
E
}
)
\end{equation*}
und
\begin{equation*}
a(P
_
0 v,v) = a(P
_
0 E
_{
-1
}
v, E
_{
-1
}
v).
\end{equation*}
\bigskip
Links fehlt noch
$
a
(
P
_
0
v,v
)
$
.
Also addieren wir links und rechts
$
a
(
P
_
0
v,v
)
$
, und schätzen auf die einfachste Art ab
\begin{equation*}
\sum
_{
i=0
}^
K a(P
_
i v,v)
\le
[1+ 2
\rho
(
\mathcal
{
E
}
)
^
2]
\sum
_{
i=0
}^
K a(P
_
i E
_{
i-1
}
v, E
_{
i-1
}
v).
\end{equation*}
\bigskip
...
...
@@ -3615,11 +3578,11 @@ Jetzt führen wir alles zusammen.
Von Lemma~
\ref
{
lem:hs
_
multiplicative
_
schwarz
}
wissen wir dass
\begin{equation*}
a(BAv,v)
\ge
\sum
_{
i=
0
}^
K a(P
_
i E
_{
i-1
}
v, E
_{
i-1
}
v),
a(BAv,v)
\ge
\sum
_{
i=
1
}^
K a(P
_
i E
_{
i-1
}
v, E
_{
i-1
}
v),
\end{equation*}
und somit
\begin{equation*}
a(BAv,v)
\ge
\frac
{
1
}{
1+ 2
\rho
(
\mathcal
{
E
}
)
^
2
}
\sum
_{
i=
0
}^
K a(P
_
i v,v).
a(BAv,v)
\ge
\frac
{
1
}{
\rho
(
\mathcal
{
E
}
)
^
2
}
\sum
_{
i=
1
}^
K a(P
_
i v,v).
\end{equation*}
...
...
@@ -3632,12 +3595,11 @@ Andererseits wissen wir aus dem Beweis für das additive Verfahren, dass
Also folgt
\begin{equation*}
\frac
{
1
}{
(1+2
\rho
(
\mathcal
{
E
}
)
^
2
)
C
_
0
^
2
}
a(v,v)
\le
a(BAv,v)
\frac
{
1
}{
\rho
(
\mathcal
{
E
}
)
^
2
C
_
0
^
2
}
a(v,v)
\le
a(BAv,v)
,
\end{equation*}
Also
und somit
\begin{equation*}
\lambda
_
\text
{
min
}
\ge
\frac
{
1
}{
(1+2
\rho
(
\mathcal
{
E
}
)
^
2
)
C
_
0
^
2
}
.
\lambda
_
\text
{
min
}
\ge
\frac
{
1
}{
\rho
(
\mathcal
{
E
}
)
^
2
C
_
0
^
2
}
.
\qedhere
\end{equation*}
\end{proof}
...
...
@@ -3645,7 +3607,7 @@ Also
Wir vergleichen die Resultate:
\begin{itemize}
\item
additiv:
$
\kappa
\le
\rho
(
\mathcal
{
E
}
)
C
_
0
^
2
$
\item
multiplikativ:
$
\kappa
\le
{
2
\rho
(
\mathcal
{
E
}
)
^
2
C
_
0
^
2
}$
\item
multiplikativ:
$
\kappa
\le
{
\rho
(
\mathcal
{
E
}
)
^
2
C
_
0
^
2
}$
\end{itemize}
Nach unserer Analyse ist das multiplikative Verfahren also
\emph
{
schlechter
}
!
...
...
Write
Preview
Supports
Markdown
0%
Try again
or
attach a new file
.
Attach a file
Cancel
You are about to add
0
people
to the discussion. Proceed with caution.
Finish editing this message first!
Cancel
Please
register
or
sign in
to comment