Skip to content
GitLab
Menu
Projects
Groups
Snippets
Help
Help
Support
Community forum
Keyboard shortcuts
?
Submit feedback
Contribute to GitLab
Sign in
Toggle navigation
Menu
Open sidebar
Sander, Oliver
skript-mehrgitter
Commits
bdd6e92d
Commit
bdd6e92d
authored
May 18, 2021
by
Sander, Oliver
Browse files
Verbessere ein paar Ungereimtheiten
parent
2aeee1cb
Pipeline
#6369
passed with stage
in 1 minute and 5 seconds
Changes
1
Pipelines
1
Hide whitespace changes
Inline
Side-by-side
skript-mehrgitter-sander.tex
View file @
bdd6e92d
...
...
@@ -4106,27 +4106,27 @@ folgendes versucht:
\begin{itemize}
\item
Benutze sehr viele eindimensionale Teilräume
\begin{equation*}
X
_
i
^
j
=
\operatorname
{
spann
}
\{\varphi
_
i
^
j
\}
,
X
_
j
^
i
=
\operatorname
{
spann
}
\{\varphi
_
j
^
i
\}
,
\end{equation*}
einen für jede Knotenbasisfunktion
$
\varphi
_
i
^
j
$
,
$
j
=
1
,
\dots
,n
_
i
$
auf jeder
Ebene
$
i
=
0
,
\dots
, J
$
.
einen für jede Knotenbasisfunktion
$
\varphi
_
j
^
i
$
,
$
i
=
1
,
\dots
,n
_
j
$
auf jeder
Ebene
$
j
=
1
,
\dots
, J
$
.
\item
Berechne die Projektionen auf die
$
X
_
i
^
j
$
\emph
{
exakt
}
.
\item
Berechne die Projektionen auf die
$
X
_
j
^
i
$
\emph
{
exakt
}
.
\end{itemize}
Stattdessen wählen wir jetzt folgenden alternativen Ansatz:
\begin{itemize}
\item
Betrachte nur die größeren Räume
$
X
_
i
$
.
\item
Betrachte nur die größeren Räume
$
X
_
j
$
.
\item
Interpretiere den Glätter auf Ebene
$
i
$
als
\emph
{
inexakte Projektion
}
auf
$
X
_
i
$
.
\item
Interpretiere den Glätter auf Ebene
$
j
$
als
\emph
{
inexakte Projektion
}
auf
$
X
_
j
$
.
\end{itemize}
Dafür müssen wir die Teilraumkorrekturtheorie etwas erweitern:
Sie muss inexakte Projektionen erlauben.
\subsection
{
Der Konvergenzbeweis
}
\subsection
{
Mehrgitter als inexaktes Teilraumkorrekturverfahren
}
Sei
also
$
X
$
wieder ein endlichdimensionaler Hilbert-Raum mit Skalarprodukten
Sei
$
X
$
wieder ein endlichdimensionaler Hilbert-Raum mit Skalarprodukten
$
a
(
\cdot
,
\cdot
)
$
und
$
(
\cdot
,
\cdot
)
$
.
\medskip
...
...
@@ -4138,11 +4138,11 @@ Teilräumen.
Für jedes
$
j
=
1
,
\dots
, J
$
definieren wir den Operator
$
A
_
j : X
_
j
\to
X
_
j
$
durch
\begin{equation*}
a
(x,y) = (
A
_{
j
}
x,y)
\quad
\forall
x,y
\in
X
_{
j
}
.
(
A
_
j
x,y) =
a
(x,y)
\
q
quad
\forall
x,y
\in
X
_{
j
}
.
\end{equation*}
Der Operator
$
A
_
j
$
ist für alle
$
j
\in
\set
{
1
,
\dots
,J
}$
positiv definit und selbstadjungiert bzgl.
\
$
(
\cdot
,
\cdot
)
$
.
\
big
skip
\
med
skip
Die
$
a
(
\cdot
,
\cdot
)
$
-Projektion
$
P
_{
j
}
: X
\to
X
_{
j
}$
ist wieder durch
\begin{equation*}
...
...
@@ -4157,7 +4157,7 @@ Zusätzlich benötigen wir jetzt auch die $(\cdot,\cdot)$-orthogonale Projektion
$
Q
_
j : X
\to
X
_{
j
}$
für
$
j
=
1
,
\dots
,J
$
:
Für alle
$
x
\in
X
$
ist
$
Q
_{
j
}
x
\in
X
_{
j
}$
das Element für das
\begin{equation*}
(Q
_
jx,y) = (x,y)
\quad
\forall
y
\in
X
_{
j
}
(Q
_
jx,y) = (x,y)
\
q
quad
\forall
y
\in
X
_{
j
}
\end{equation*}
gilt. Damit wird das Residuum auf die groben Gitter eingeschränkt.
...
...
@@ -4176,7 +4176,8 @@ Da die $X_i$ geschachtelt sind haben die Projektionsoperatoren einige besondere
\end{equation}
\end{lemma}
Anschaulich besagt das Lemma, dass es irrelevant ist, von welchem Raum aus auf den Raum
$
X
_{
j
}$
projiziert wird.
Anschaulich besagt das Lemma, dass eine Projektion auf einen kleinen Raum alle Projektionen
überdeckt, die eventuell vorher ausgeführt wurden.
\begin{proof}
Seien
$
x,y
\in
X
$
.
...
...
@@ -4192,7 +4193,9 @@ Anschaulich besagt das Lemma, dass es irrelevant ist, von welchem Raum aus auf d
\begin{equation*}
a((P
_{
j
}
P
_{
l
}
-P
_{
j
}
)x,y) =0
\quad
\forall
y
\in
X.
\end{equation*}
Mit
$
y
=
(
P
_{
j
}
P
_{
l
}
-
P
_{
j
}
)
x
$
folgt Gleichung~
\eqref
{
MGpjpleqpj
}
.
Diese Gleichung muss insbesondere für
$
y
=
(
P
_{
j
}
P
_{
l
}
-
P
_{
j
}
)
x
$
gelten; deshalb folgt~
\eqref
{
MGpjpleqpj
}
.
\medskip
Gleichung~
\eqref
{
MGplpjeqpj
}
erhalten wir mit
\begin{equation*}
...
...
@@ -4210,21 +4213,29 @@ Die Projektionen $Q_j$ und $P_j$ stehen miteinander in Verbindung:
\end{lemma}
\begin{proof}
Sei
$
x
\in
X
_{
l
}$
.
Dann gilt
für alle
$
y
\in
X
_{
j
}$
mit
$
j
\leq
l
$
Dann gilt mit
$
j
\leq
l
$
\begin{equation*}
(Q
_{
j
}
A
_{
l
}
x,y)=(A
_{
l
}
x,y) = a(x,y) = a(P
_{
j
}
x,y)=(A
_{
j
}
P
_{
j
}
x,y).
\end{equation*}
Es folgt
\begin{equation*}
((Q
_{
j
}
A
_{
l
}
-A
_{
j
}
P
_{
j
}
)x,y)=0
\quad\forall
y
\in
X
_{
j
}
.
(Q
_{
j
}
A
_{
l
}
x,y)=(A
_{
l
}
x,y) = a(x,y) = a(P
_{
j
}
x,y)=(A
_{
j
}
P
_{
j
}
x,y)
\qquad
\forall
y
\in
X
_
j.
\qedhere
\end{equation*}
Mit
$
y
=
(
Q
_{
j
}
A
_{
l
}
-
A
_{
j
}
P
_{
j
}
)
x
$
folgt die Behauptung.
\end{proof}
\bigskip
Zur Erinnerung und zum Festlegen der Notation wiederholen wir hier
das Mehrgitterverfahren. Wir definieren das Mehrgitterfahren als
einen linearen Operator
$
\Theta
_
J : X
\to
X
$
, der zu einem linearen Verfahren
\begin{equation*}
x
^{
k+1
}
= x
^
k +
\Theta
_
J (f - Ax
^
k)
\end{equation*}
gehört.
Wir definieren den abstrakten Mehrgitter-Operator
$
\Theta
_{
J
}$
rekursiv:
\begin{itemize}
\item
Sei
$
\Theta
_
1
\colonequals
A
_{
1
}^{
-
1
}$
.
\item
$
\Theta
_
1
\colonequals
A
_{
1
}^{
-
1
}$
.
\item
Für
$
j
=
1
,
\dots
,J
$
sei
$
\Theta
_
j
$
definiert über
\begin{algorithm}
[H]
\label
{
MGVerfahrenAlg
}
...
...
@@ -4244,18 +4255,17 @@ Wir definieren den abstrakten Mehrgitter-Operator $\Theta_{J}$ rekursiv:
Dabei sei
$
R
_{
j
}
\colon
X
_{
j
}
\to
X
_{
j
}$
ein bzgl.
\
$
(
\cdot
,
\cdot
)
$
selbstadjungierter,
positiv definiter Vorkonditionierer für ein lineares Verfahren.
Dieses Verfahren wird der
\emph
{
Glätter
}
des Mehrgitter-Verfahrens.
Wir denken hauptsächlich wieder an das Jacobi-Verfahren (
$
R
_
j
=
\eta
D
_
j
^{
-
1
}$
)
oder an das Gauß--Seidel-Verfahren (
$
R
_
j
=
(
D
_
j
+
L
_
j
)
^{
-
1
}$
).
Dieses Verfahren ist der
\emph
{
Glätter
}
des Mehrgitter-Verfahrens.
Das Gauß--Seidel-Verfahren
$
R
_
j
=
(
D
_
j
+
L
_
j
)
^{
-
1
}$
geht aber nicht, weil es
nicht symmetrisch ist.
\medskip
Stattdessen nimmt man
Wir denken dabei wieder an das Jacobi-Verfahren (
$
R
_
j
=
\eta
D
_
j
^{
-
1
}$
).
Das Gauß--Seidel-Verfahren
$
R
_
j
=
(
D
_
j
+
L
_
j
)
^{
-
1
}$
geht nicht, weil es
nicht symmetrisch ist. Stattdessen nimmt man
\begin{itemize}
\item
Das symmetrische Gauß--Seidel-Verfahren
\item
Für die Nachglättung das Rückwarts-Gauß--Seidel-Verfahren.
\item
das symmetrische Gauß--Seidel-Verfahren
\item
das Gauß--Seidel-Verfahren für den Vorglätter und das
Rückwarts-Gauß--Seidel-Verfahren für den Nachglätter.
\end{itemize}
...
...
@@ -4268,9 +4278,9 @@ wenn die Glätter bestimmte Eigenschaften erfüllen.
\begin{theorem}
\label
{
thm:absMGconvergence
}
Sei für jedes
$
j
=
1
,
\dots
,J
$
der Glätter
$
R
_{
j
}$
symmetrisch bzgl.
\
$
(
\cdot
,
\cdot
)
$
,
positiv definit
, invertierbar
und so, dass er die Bedingungen
positiv definit und so, dass er die Bedingungen
\begin{equation}
\label
{
eq:scondition1
}
a(
[
I-R
_{
j
}
A
_{
j
}
]
x,x)
\geq
0,
\quad
\forall
x
\in
X
_{
j
}
a(
(
I-R
_{
j
}
A
_{
j
}
)
x,x)
\geq
0,
\quad
\forall
x
\in
X
_{
j
}
\end{equation}
und
\begin{equation}
\label
{
eq:scondition2
}
...
...
@@ -4280,16 +4290,19 @@ für eine Konstante $\alpha$ erfüllt.
Dann gilt
\begin{alignat}
{
2
}
\label
{
eq:abstract
_
mg
_
convergence
_
lower
_
bound
}
0
\leq
&
a(
[
I-
\Theta
_{
J
}
A
_{
J
}
]
x,x)
&
\qquad
&
\forall
x
\in
X
\\
0
\leq
\;
&
a(
(
I-
\Theta
_{
J
}
A
_{
J
}
)
x,x)
&
\qquad
&
\forall
x
\in
X
\\
\label
{
eq:abstract
_
mg
_
convergence
_
upper
_
bound
}
&
a(
[
I-
\Theta
_{
J
}
A
_{
J
}
]
x,x)
\leq
\delta
a(x,x),
&
&
\forall
x
\in
X
&
a(
(
I-
\Theta
_{
J
}
A
_{
J
}
)
x,x)
\leq
\delta
a(x,x),
&
&
\forall
x
\in
X
\end{alignat}
mit
$
\delta
=
\frac
{
\alpha
}{
\alpha
+
2
m
}$
.
\end{theorem}
Aus diesen zwei Ungleichungen folgt die Konvergenz des Mehrgitterverfahrens:
\begin{itemize}
\item
Wegen~
\eqref
{
eq:abstract
_
mg
_
convergence
_
lower
_
bound
}
ist
\item
Die Iterationsmatrix
$
I
-
\Theta
_
J A
$
des Mehrgitteroperators ist
selbstadjungiert bzgl.
\
$
a
(
\cdot
,
\cdot
)
$
.
\todo
[inline]
{
Beweis?
}
\item
Wegen~
\eqref
{
eq:abstract
_
mg
_
convergence
_
lower
_
bound
}
ist deshalb
\begin{equation*}
\lambda
_
\text
{
min
}
(I -
\Theta
_
JA
_
J)
=
...
...
@@ -4297,7 +4310,6 @@ Aus diesen zwei Ungleichungen folgt die Konvergenz des Mehrgitterverfahrens:
\ge
0.
\end{equation*}
\todo
[inline]
{
Dafür muss
$
I
-
\Theta
_
J A
_
J
$
selbstadjungiert sein!
}
\item
Also ist
$
\rho
(
I
-
\Theta
_
J A
_
J
)
=
\lambda
_
\text
{
max
}
(
I
-
\Theta
_
J A
_
J
)
$
.
\end{itemize}
...
...
@@ -4307,7 +4319,7 @@ Aus~\eqref{eq:abstract_mg_convergence_upper_bound} folgt dass
\lambda
_
\text
{
max
}
( I -
\Theta
_
J A
_
J)
=
\sup
_{
\norm
{
x
}
\neq
0
}
\frac
{
a([I-
\Theta
_{
J
}
A
_{
J
}
]x,x)
}{
a(x,x)
}
=
\le
\delta
.
\end{equation*}
Damit ist das iterative Verfahren
...
...
@@ -4328,16 +4340,12 @@ Das machen wir in Kapitel~\ref{}.
\begin{proof}
[Beweis von Satz~
\ref
{
thm:absMGconvergence
}
:
Die untere Schranke~
\eqref
{
eq:abstract
_
mg
_
convergence
_
lower
_
bound
}
]
Der Beweis wurde
\cite
{
bramble1993multigrid
}
entnommen.
Aus der Definition des Mehrgitterverfahrens
folgt für
$
j
=
2
,
\dots
,J
$
die Rekursionsvorschrift
\todo
[inline]
{
Nachrechnen!
}
\begin{equation}
\label
{
defRec
}
I-
\Theta
_{
j
}
A
_{
j
}
= K
_{
j
}^
m[ (I-P
_{
j-1
}
) + (I -
\Theta
_{
j-1
}
A
_{
j-1
}
)P
_{
j-1
}
]K
_{
j
}^
m
\end{equation}
mit
$
K
_{
j
}
: X
_{
j
}
\to
X
_{
j
}$
,
$
K
_{
j
}
\colonequals
I
-
R
_{
j
}
A
_{
j
}$
.
\medskip
Sei
$
K
_{
j
}
: X
_{
j
}
\to
X
_{
j
}$
,
$
K
_{
j
}
\colonequals
I
-
R
_{
j
}
A
_{
j
}$
die Iterationsmatrix
des Glätters.
Da
$
R
_{
j
}$
symmetrisch bezüglich des Skalarprodukts
$
(
\cdot
,
\cdot
)
$
ist, folgt
\begin{equation}
\label
{
KAsym
}
a(K
_{
j
}
x,y)
...
...
@@ -4351,9 +4359,9 @@ Die untere Schranke~\eqref{eq:abstract_mg_convergence_lower_bound}]
\end{equation}
d.h.
\
$
K
_{
j
}$
ist symmetrisch bzgl.
\
$
a
(
\cdot
,
\cdot
)
$
.
\
big
skip
\
med
skip
Nun
zeigen
wir via
vollständiger Induktion über
$
j
$
,
dass
Wir
zeigen
mittels
vollständiger Induktion über
$
j
$
dass
\begin{equation}
\label
{
indulowerBound
}
a((I-
\Theta
_{
j
}
A
_{
j
}
)x,x)
\geq
0
\quad
\forall
x
\in
X
_{
j
}
.
\end{equation}
...
...
@@ -4362,14 +4370,30 @@ Die untere Schranke~\eqref{eq:abstract_mg_convergence_lower_bound}]
\begin{equation*}
a((I-
\underbrace
{
\Theta
_{
1
}
A
_{
1
}}_{
=I
}
)x,x) = 0
\quad
\forall
x
\in
X
_{
1
}
.
\end{equation*}
Für den Induktionsschritt von
$
j
-
1
$
zu
$
j
$
benötigen wir die Gleichung
Für den Induktionsschritt von
$
j
-
1
$
zu
$
j
$
stellen wir das Mehrgitterverfahren für
$
j
=
2
,
\dots
, J
$
als
\begin{align}
\nonumber
I-
\Theta
_{
j
}
A
_{
j
}
&
=
K
_{
j
}^
m[ I -
\Theta
_{
j-1
}
Q
_{
j-1
}
A
_
j ]K
_
j
^
m
\\
\label
{
eq:defRec
}
&
=
K
_{
j
}^
m[ (I-P
_{
j-1
}
) + (I -
\Theta
_{
j-1
}
A
_{
j-1
}
)P
_{
j-1
}
]K
_{
j
}^
m
\end{align}
dar.
\medskip
Außerdem benötigen wir die Gleichung
\begin{equation}
\label
{
idminuspsqrteqidminusp
}
(I-P
_{
j
}
)
^
2 = I - 2P
_{
j
}
+
\underbrace
{
P
_{
j
}
P
_{
j
}}_{
=P
_{
j
}}
= I-P
_{
j
}
.
\end{equation}
Dann gilt für ein beliebiges
$
x
\in
X
_{
j
}$
\begin{align*}
a((I-
\Theta
_{
j
}
A
_{
j
}
)x,x)
\stackrela
{
\eqref
{
defRec
}}{
=
}
\stackrela
{
\eqref
{
eq:
defRec
}}{
=
}
a(K
_{
j
}^
m(I-P
_{
j-1
}
)K
_{
j
}^
mx,x)
\\
%
&
\quad
+ a(K
_{
j
}^
m(I -
\Theta
_{
j-1
}
A
_{
j-1
}
)P
_{
j-1
}
K
_{
j
}^
mx,x)
\\
...
...
@@ -4397,12 +4421,14 @@ Die obere Schranke~\eqref{eq:abstract_mg_convergence_upper_bound}]
Wir zeigen die Abschätzung
\begin{equation*}
a([I-
\Theta
_{
J
}
A
_{
J
}
]x,x)
\leq
\delta
a(x,x)
\quad
\forall
x
\in
X
a([I-
\Theta
_{
J
}
A
_{
J
}
]x,x)
\leq
\frac
{
\alpha
}{
\alpha
+2m
}
a(x,x)
\qquad
\forall
x
\in
X
\end{equation*}
durch vollständige Induktion über
$
j
$
.
Definiere
$
\delta
\colonequals
\frac
{
\alpha
}{
\alpha
+
2
m
}$
unabhängig von
$
j
$
.
Sei
\medskip
Definiere
$
\delta
\colonequals
\frac
{
\alpha
}{
\alpha
+
2
m
}$
, und sei
\begin{equation}
\label
{
inducUpperBound
}
a([I-
\Theta
_{
j-1
}
A
_{
j-1
}
]x,x)
\leq
\delta
a(x,x)
\quad
\forall
x
\in
X
_{
j-1
}
\end{equation}
...
...
@@ -4412,12 +4438,12 @@ Die obere Schranke~\eqref{eq:abstract_mg_convergence_upper_bound}]
\begin{equation*}
a((I-
\underbrace
{
\Theta
_{
1
}
A
_{
1
}}_{
=I
}
)x,x) = 0
\quad
\forall
x
\in
X
_{
1
}
.
\end{equation*}
Wir nehmen an, dass
\eqref
{
inducUpperBound
}
für
$
j
-
1
$
gilt.
Wir nehmen
nun
an, dass
\eqref
{
inducUpperBound
}
gilt.
Definiere für eine kompakte Notation
$
\til
x
\colonequals
K
_{
j
}^
m x
$
.
Dann gilt
\begin{align*}
a((I-
\Theta
_{
j
}
A
_{
j
}
)x,x)
\stackrela
{
\eqref
{
defRec
}}{
=
}
\stackrela
{
\eqref
{
eq:
defRec
}}{
=
}
a((I-P
_{
j-1
}
)
\til
x,
\til
x) + a((I -
\Theta
_{
j-1
}
A
_{
j-1
}
)P
_{
j-1
}
\til
x,P
_{
j-1
}
\til
x)
\\
%
\stackrela
{
\eqref
{
inducUpperBound
}}{
\leq
}
...
...
@@ -4445,6 +4471,8 @@ Die obere Schranke~\eqref{eq:abstract_mg_convergence_upper_bound}]
%
\stackrela
{
\text
{
Cauchy-Schwarz
}}{
\leq
}
(R
_{
j
}^{
-1
}
(I-P
_{
j-1
}
)
\til
x,(I-P
_{
j-1
}
)
\til
x)
^{
\frac
{
1
}{
2
}}
(
\underbrace
{
R
_{
j
}^{
-1
}
R
_{
j
}}_{
=I
}
A
_{
j
}
\til
x,R
_{
j
}
A
_{
j
}
\til
x)
^{
\frac
{
1
}{
2
}}
\\
\intertext
{
(hier fehlt kein
$
R
_
j
^{
-
1
}$
, denn die Bilinearform ist ja
$
(
R
_
j
^{
-
1
}
\cdot
,
\cdot
)
$
und nicht
$
(
\cdot
,
\cdot
)
$
,)
}
%
\stackrela
{
\text
{
Bedingung~
\eqref
{
eq:scondition2
}}}{
\leq
}
\sqrt
{
\alpha
}
a((I-P
_{
j-1
}
)
\til
x,(I-P
_{
j-1
}
)
\til
x)
^{
\frac
{
1
}{
2
}}
a(R
_{
j
}
A
_{
j
}
\til
x,
\til
x)
^{
\frac
{
1
}{
2
}}
\\
...
...
@@ -4452,7 +4480,6 @@ Die obere Schranke~\eqref{eq:abstract_mg_convergence_upper_bound}]
\stackrela
{
\text
{
Def.~
$
K
_{
j
}$}}{
=
}
\sqrt
{
\alpha
}
a((I-P
_{
j-1
}
)
\til
x,
\til
x)
^{
\frac
{
1
}{
2
}}
a((I-K
_{
j
}
)
\til
x,
\til
x)
^{
\frac
{
1
}{
2
}}
.
\end{align*}
\todo
[inline]
{
Fehlt nach der CS-Ungleichung nicht ein
$
R
_
j
^{
-
1
}$
?
}
Daraus folgt
\begin{equation*}
a((I-P
_{
j-1
}
)
\til
x,
\til
x)
...
...
@@ -4477,9 +4504,9 @@ Die obere Schranke~\eqref{eq:abstract_mg_convergence_upper_bound}]
\medskip
Für
$
z
\in
[
0
,
1
]
$
gilt
$
z
^{
2
m
}
\leq
z
^
i
$
mit
$
i
\leq
2
m
$
.
Für
$
z
\in
[
0
,
1
]
$
gilt
$
z
^{
2
m
}
\leq
z
^
i
$
für alle
$
i
\leq
2
m
$
, und somit auch
$
z
^{
2
m
}
\le
\frac
{
1
}{
2
m
}
\sum
_{
i
=
0
}^{
2
m
-
1
}
z
^
i
$
.
Damit ergibt sich die Ungleichung
\todo
[inline]
{
Nachrechnen!
}
\begin{equation*}
(1-z)z
^{
2m
}
\leq
\frac
{
1
}{
2m
}
(1-z)
\sum
_{
i=0
}^{
2m-1
}
z
^
i =
\frac
{
1
}{
2m
}
(1-z
^{
2m
}
).
\end{equation*}
...
...
@@ -4495,7 +4522,7 @@ Die obere Schranke~\eqref{eq:abstract_mg_convergence_upper_bound}]
\begin{align*}
a((I-
\Theta
_{
j
}
A
_{
j
}
)x,x)
&
\leq
(1-
\delta
) a((I-P
_{
j-1
}
)K
_{
j
}^
m x,K
_{
j
}^
m x) +
\delta
a(K
_{
j
}^
m x,K
_{
j
}^
m x)
\\
&
\leq
(1-
\delta
)
\alpha
a((I-K
_{
j
}
)K
_{
j
}^{
2m
}
x,x) +
\delta
a( K
_{
j
}^
mx,K
_{
j
}^
mx)
\\
&
\leq
\frac
{
\alpha
}{
2m
}
(1-
\delta
)
(
a(x,x) - a(K
_{
j
}^
mx,K
_{
j
}^
mx)
)
+
\delta
a(K
_{
j
}^
mx,K
_{
j
}^
mx)
\\
&
\leq
\frac
{
\alpha
}{
2m
}
(1-
\delta
)
\Big
[
a(x,x) - a(K_{j}^mx,K_{j}^mx)
\Big]
+
\delta
a(K
_{
j
}^
mx,K
_{
j
}^
mx)
\\
&
\leq
\frac
{
\alpha
}{
2m
}
(1-
\delta
) a(x,x)+ (
\delta
-
\frac
{
\alpha
}{
2m
}
(1-
\delta
))a(K
_{
j
}^
mx,K
_{
j
}^
mx).
\end{align*}
Für
$
\delta
=
\frac
{
\alpha
}{
\alpha
+
2
m
}$
gilt
...
...
Write
Preview
Supports
Markdown
0%
Try again
or
attach a new file
.
Attach a file
Cancel
You are about to add
0
people
to the discussion. Proceed with caution.
Finish editing this message first!
Cancel
Please
register
or
sign in
to comment