Skip to content
GitLab
Menu
Projects
Groups
Snippets
Help
Help
Support
Community forum
Keyboard shortcuts
?
Submit feedback
Contribute to GitLab
Sign in
Toggle navigation
Menu
Open sidebar
Sander, Oliver
skript-mehrgitter
Commits
0e3cd1a3
Commit
0e3cd1a3
authored
May 18, 2021
by
Sander, Oliver
Browse files
Diverse Detailverbesserungen
parent
bdd6e92d
Pipeline
#6370
passed with stage
in 3 minutes and 52 seconds
Changes
1
Pipelines
1
Hide whitespace changes
Inline
Side-by-side
skript-mehrgitter-sander.tex
View file @
0e3cd1a3
...
...
@@ -3186,7 +3186,7 @@ Spektralradius der multiplikativen Methode abgeschätzt.}
\end{equation*}
\end{theorem}
Die Selbstadjungiertheit von
$
\
_\text
{
add
}
A
=
P
\colonequals
\sum
_{
i
=
1
}^
K P
_
i
$
Die Selbstadjungiertheit von
$
B
_
\text
{
add
}
A
=
P
\colonequals
\sum
_{
i
=
1
}^
K P
_
i
$
folgt aus der Selbstadjungiertheit der
$
P
_
i
$
. Und die gilt da für all
$
u,v
\in
X
$
\begin{equation*}
a(P
_
i u,v) = a(v,P
_
i u) = a(P
_
iv,P
_
i u) = a(P
_
i u, P
_
i v) = a(u,P
_
i v).
...
...
@@ -4586,7 +4586,17 @@ kleine Unterschiede.
Dies ist fast Definition~
\ref
{
def:TRK
_
annahme
_
1
}
, aber nicht ganz:
Dort muss die Abschätzung für alle
$
x
$
aus
$
X
_
j
$
gelten, hier nur für alle
$
x
$
aus
$
(
I
-
P
_{
j
-
1
}
)
X
_
j
$
.
\todo
[inline]
{
Beispiel: Wie sieht so ein Raum aus?
}
\begin{example}
Sei
$
X
_{
j
-
1
}$
der Raum aller Lagrange-FE-Funktionen erster Ordnung auf
einem Gitter
$
\mathcal
{
T
}_{
j
-
1
}$
ist, und
$
X
_
j
$
der entsprechende Raum
auf einer uniformen Verfeinerung von
$
\mathcal
{
T
}_{
j
-
1
}$
.
Dann ist wird
$
(
I
-
P
_{
j
-
1
}
)
X
_
j
$
aufgespannt durch die Knotenbasisfunktionen
$
\varphi
_
j
^
i
$
zu allen Knoten die es in
$
\mathcal
{
T
}_
j
$
gibt, aber nicht
in
$
\mathcal
{
T
}_{
j
-
1
}$
.
\end{example}
\begin{definition}
Es existiert
$
\beta
>
0
$
, so dass für beliebige
$
x,y
\in
X
_
j
$
mit
$
x
=
\sum
_{
i
=
1
}^{
n
_
j
}
x
^
i
$
...
...
@@ -4605,34 +4615,40 @@ Anschaulich gesprochen, überlappen sich die Unterräume $X_{j}^k$ kaum.
\subsubsection
{
Die additive Methode
}
Wir definieren die additive Methode von Schwarz
$
R
_{
j
}^{
a
}
\colon
X
_{
j
}
\to
X
_{
j
}$
durch
$
R
_{
j
}^
a
\colonequals\eta
R
_{
j
}$
mit
Wir definieren die additive Methode von Schwarz
$
\Radd
_
j : X
_{
j
}
\to
X
_{
j
}$
durch
$
\Radd
_
j
\colonequals\eta
R
_{
j
}$
mit
\begin{equation}
\label
{
defsschwarz
}
R
_{
j
}
=
\sum
_{
i=1
}^{
n
_
j
}
A
_{
j,i
}^{
-1
}
Q
_
j
^
i
=
\sum
_{
i=1
}^{
n
_
j
}
P
_
j
^
i A
_{
j,i
}^{
-1
}
\end{equation}
und einer Skalierungskonstante
$
\eta
$
.
\todo
[inline]
{
Wie genau interpretiert man das
$
A
_{
j,i
}^{
-
1
}$
?
}
Wegen Lemma~
\ref
{
lem:QjAleqAjPj
}
ist das äquivalent zur bisherigen Definition
\begin{equation}
\label
{
eq:aschwarzrepre
}
R
_
j A
_
j
=
\sum
_{
i=1
}^{
n
_
j
}
P
_
j
^
i.
\end{equation}
\begin{theorem}
\label
{
satzAsspossyminv
}
Die additive Methode von Schwarz
$
R
^
a
_{
j
}
$
ist positiv definit, symmetrisch bzgl.
$
(
\cdot
,
\cdot
)
$
und invertierbar.
Die additive Methode von Schwarz
$
\Radd
_
j
$
ist positiv definit, symmetrisch bzgl.
$
(
\cdot
,
\cdot
)
$
und invertierbar.
\end{theorem}
\todo
[inline]
{
Können wir den Beweis in ein früheres Kapitel schieben?
}
\begin{proof}
Sei
$
x
\in
X
_{
j
}
\backslash\set
{
0
}$
. Mit der Definition von
$
R
_{
j
}$
in
\eqref
{
defsschwarz
}
und da
$
A
_{
j,k
}^{
-
1
}$
positiv definit ist, folgt
\begin{equation*}
(R
_{
j
}
x,x) =
\sum
_{
k
=1
}^
K
(A
_{
j,
k
}^{
-1
}
Q
^
k
_{
j
}
x,x) =
\sum
_{
k
=1
}^
K
(A
_{
j,
k
}^{
-1
}
Q
^
k
_{
j
}
x,Q
^
k
_{
j
}
x) > 0.
(R
_{
j
}
x,x) =
\sum
_{
i
=1
}^
{
n
_
j
}
(A
_{
j,
i
}^{
-1
}
Q
^
i
_{
j
}
x,x) =
\sum
_{
i
=1
}^
{
n
_
j
}
(A
_{
j,
i
}^{
-1
}
Q
^
i
_{
j
}
x,Q
^
i
_{
j
}
x) > 0.
\end{equation*}
Damit ist
$
R
_{
j
}$
positiv definit.
\\
Damit ist
$
R
_{
j
}$
positiv definit.
Seien
$
x,y
\in
X
_{
j
}$
beliebig.
Dann folgt die Symmetrie von
$
R
_{
j
}$
bezüglich
$
(
\cdot
,
\cdot
)
$
durch
\begin{align*}
(R
_
{
j
}
x,y)
&
=
\sum
_{
k=
1
}^
K
(A
_{
j,
k
}^{
-1
}
Q
^
k
_{
j
}
x,y)
\\
&
=
\sum
_{
k=
1
}^
K
(A
_{
j,
k
}^{
-1
}
Q
^
k
_{
j
}
x,Q
^
k
_{
j
}
y)
\\
&
=
\sum
_{
k=
1
}^
K (Q
^
k
_{
j
}
x,A
_{
j,
k
}^{
-1
}
Q
^
k
_{
j
}
y)
\\
&
= (x,R
_
{
j
}
y).
(R
_
j
x,y)
&
=
\sum
_{
k=
i
}^
{
n
_
j
}
(A
_{
j,
i
}^{
-1
}
Q
^
i
_
j
x,y)
\\
&
=
\sum
_{
k=
i
}^
{
n
_
j
}
(A
_{
j,
i
}^{
-1
}
Q
^
i
_{
j
}
x,
Q
^
i
_
j
y)
\\
&
=
\sum
_{
k=
i
}^
{
n
_
j
}
(Q
^
i
_
j
x,
A
_{
j,
i
}^{
-1
}
Q
^
i
_
j
y)
\\
&
= (x,R
_
j
y).
\end{align*}
Als linearer, positiv definiter Operator auf einem endlich-dimensionalen Raum
$
X
_
j
$
ist
$
R
_
j
$
auch invertierbar.
...
...
@@ -4647,8 +4663,6 @@ und einer Skalierungskonstante $\eta$.
Für den Beweis brauchen wir wieder Hilfssatz~
\ref
{
lem:aPinvuu
_
has
_
minimal
_
energy
}
.
Zur Erinnerung: Dieser besagt:
\todo
[inline]
{
Hilfssatz~
\ref
{
lem:aPinvuu
_
has
_
minimal
_
energy
}
ist anders hingeschrieben.
Dort steht links ebenfalls das
$
a
(
\cdot
,
\cdot
)
$
-Skalarprodukt.
}
\begin{lemma}
\label
{
smootherinveqinfsum
}
Für die additive Methode von Schwarz mit
$
\eta
=
1
$
gilt für jedes
$
j
=
1
,
\dots
,J
$
...
...
@@ -4659,6 +4673,19 @@ Dort steht links ebenfalls das $a(\cdot,\cdot)$-Skalarprodukt.}
\end{equation*}
\end{lemma}
\emph
{
Achtung:
}
In Hilfssatz~
\ref
{
lem:aPinvuu
_
has
_
minimal
_
energy
}
steht auf der linken Seite
$
a
(
P
^{
-
1
}
x,x
)
$
statt
$
((
\Radd
_
j
)
^{
-
1
}
x,x
)
$
. Das macht aber keinen Unterschied, denn
\begin{equation*}
((
\Radd
_
j)
^{
-1
}
x,x)
=
(A
_
j (
\Radd
_
j A
_
j)
^{
-1
}
x,x)
=
a((
\Radd
_
j A
_
j)
^{
-1
}
x,x)
=
a(P
^{
-1
}
x,x).
\end{equation*}
\begin{proof}
[Beweis von Satz
\ref
{
konvergenceAdditiveSmoother
}
]
Der Beweis basiert auf
\cite
{
arnold2000multigrid
}
, Kapitel 3.
Zuerst zeigen wir, dass Bedingung
\eqref
{
eq:scondition2
}
erfüllt ist,
...
...
@@ -4825,7 +4852,7 @@ Das folgende Lemma zeigt, dass die multiplikative Methode positiv definit ist.
\begin{equation*}
(R
^
\textup
{
add
}_{
j
}
x,x)
\leq
\beta
^
2 (R
_{
j
}^
\textup
{
mult
}
x,x)
\quad
\forall
x
\in
X
_{
j
}
\end{equation*}
mit
$
\beta
$
aus der Überlappungsbedingung
\eqref
{
ssmcondition1
}
.
mit
$
\beta
$
aus der Überlappungsbedingung
~
\eqref
{
eq:
ssmcondition1
}
.
\end{lemma}
\begin{proof}
Der Beweis wurde
\cite
{
arnold1997preconditioning
}
entnommen.
...
...
@@ -4855,7 +4882,7 @@ Das folgende Lemma zeigt, dass die multiplikative Methode positiv definit ist.
Damit erhalten wir
\begin{align}
\label
{
msshelp1
}
a(R
_{
j
}^
aAx,x)
\stackrela
{
\eqref
{
aschwarzrepre
}}{
=
}
\stackrela
{
\eqref
{
eq:
aschwarzrepre
}}{
=
}
\sum
_{
k=1
}^{
K
}
a(P
_{
j
}^
kx,x)
\\
%
\stackrela
{
\text
{
Lemma~
\ref
{
helplemmaAssleqmss
}}}{
=
}
...
...
@@ -4898,7 +4925,7 @@ Das folgende Lemma zeigt, dass die multiplikative Methode positiv definit ist.
Schließlich gilt mit
\eqref
{
msseq
}
\begin{align}
a(R
_{
j
}^
aA
_{
j
}
x,x)
\stackrela
{
\eqref
{
aschwarzrepre
}}{
=
}
\stackrela
{
\eqref
{
eq:
aschwarzrepre
}}{
=
}
\sum
_{
k=1
}^{
K
}
a(P
_{
j
}^
kx,x)
\nonumber\\
%
&
\leq
...
...
Write
Preview
Supports
Markdown
0%
Try again
or
attach a new file
.
Attach a file
Cancel
You are about to add
0
people
to the discussion. Proceed with caution.
Finish editing this message first!
Cancel
Please
register
or
sign in
to comment