Skip to content
GitLab
Menu
Projects
Groups
Snippets
Help
Help
Support
Community forum
Keyboard shortcuts
?
Submit feedback
Contribute to GitLab
Sign in
Toggle navigation
Menu
Open sidebar
Sander, Oliver
skript-mehrgitter
Commits
47e2e82a
Commit
47e2e82a
authored
Jul 13, 2021
by
Sander, Oliver
Browse files
Nichtlineares Schwarz-Verfahren: diverse Verbesserungen
parent
fe51cafa
Pipeline
#6789
passed with stage
in 3 minutes and 25 seconds
Changes
1
Pipelines
1
Hide whitespace changes
Inline
Side-by-side
skript-mehrgitter-sander.tex
View file @
47e2e82a
...
...
@@ -9832,9 +9832,10 @@ Damit meinen wir dass für alle $(x_1,\dots,x_N) \in X_1 \times \dots X_N$
\psi
\Big
(
\sum
_{
j=1
}^
N x
_
j
\Big
) =
\sum
_{
j=1
}^
N
\psi
(x
_
j).
\end{equation*}
Außerdem brauchen wir dass für alle
$
x
_
j
\in
X
_
j
$
und
$
y
_
j
\in
\sum
_{
k
=
1
,k
\neq
j
}^
N X
_
k
$
\begin{equation*}
\begin{equation}
\label
{
eq:nonsmooth
_
independence
}
\psi
(x
_
j + P
_
j y
_
j) =
\psi
(x
_
j).
\end{equation
*
}
\end{equation}
\todo
[inline]
{
Definieren
$
P
_
j
$
!
}
\todo
[inline]
{
Diese Bedingung besser erklären!
}
...
...
@@ -9869,12 +9870,12 @@ eine eindeutige Lösung. Der Algorithmus ist also durchführbar.
\begin{theorem}
Sei
$
u
$
der Minimierer von
$
J
$
in
$
X
$
, un
s
sei
$
(
u
_
\nu
)
$
die durch das Schwarz-Verfahren
Sei
$
u
$
der Minimierer von
$
J
$
in
$
X
$
, un
d
sei
$
(
u
_
\nu
)
$
die durch das Schwarz-Verfahren
erzeugte Folge mit Startwert
$
u
_
0
$
. Setze
\begin{align*}
\gamma
&
\colonequals
\frac
{
N C
_
X
^
2 L
^
2
}{
2
\alpha
^
2
}
\\
q
&
\colonequals
\frac
{
\gamma
}{
1+
\gamma
}
\\
\gamma
&
\colonequals
N C
_
X
^
2 L
^
2
\frac
{
1
}{
2
\alpha
^
2
}
\\
C
_
0
&
\colonequals
2(1+
\gamma
)
\alpha
^{
-1
}
(J(u
_
0) - J(u)).
C
_
0
&
\colonequals
\frac
{
2(1+
\gamma
)
}{
\alpha
}
(J(u
_
0) - J(u)).
\end{align*}
Dann gilt
\begin{equation*}
...
...
@@ -9882,9 +9883,6 @@ eine eindeutige Lösung. Der Algorithmus ist also durchführbar.
\end{equation*}
\end{theorem}
Einen Beweis für den glatten Fall
$
\psi
=
0
$
findet sich bei
\citet
[Theorem~I.3]
{
lions
}
.
\begin{proof}
\begin{itemize}
\item
Sei
$
\nu
=
n
+
\frac
{
j
}{
N
}
\ge
1
$
.
...
...
@@ -9893,26 +9891,35 @@ Einen Beweis für den glatten Fall $\psi = 0$ findet sich bei
\item
Deshalb hat
$
J
(
\cdot
+
u
_
\nu
)
|
_{
X
_
j
}$
sein Minimum in
$
0
$
.
\item
Sei
$
\partial
J
$
das Subdifferential von
$
J
$
.
\todo
[inline]
{
Das müssen wir definieren...
}
\item
Sei
$
\partial
J
(
u
_
\nu
)
$
das Subdifferential von
$
J
$
an der Stelle
$
u
_
\nu
$
,
d.h.
\
die Menge aller Vektoren
$
v
\in
X
$
so dass
\begin{equation*}
\langle
v,(x-u
_
\nu
)
\rangle
\le
J(x) - J(u
_
\nu
).
\end{equation*}
\item
Es ist
$
0
\in
\partial
J
(
u
_
\nu
)
|
_{
X
_
j
}$
, und deshalb
\todo
{
Warum?
}
\begin{equation*}
\item
Es ist
$
0
\in
\partial
J
(
u
_
\nu
)
|
_{
X
_
j
}
=
D
\phi
(
u
_
\nu
)
+
\partial
\psi
(
u
_
\nu
)
$
,
und deshalb
$
-
D
\phi
(
u
_
\nu
)
\in
\partial
\psi
(
u
_
\nu
)
$
, was bedeutet dass
\begin{equation}
\label
{
eq:nonsmooth
_
bounds
_
smooth
}
D
\phi
(u
_
\nu
)(
\eta
)
\le
\psi
(u
_
\nu
-
\eta
) -
\psi
(u
_
\nu
)
\qquad
\forall
\eta
\in
X
_
j.
\end{equation*}
\end{equation}
\todo
[inline]
{
Details nachprüfen!
}
\item
Zusammen mit der Elliptizität von
$
D
\phi
$
erhalten wir
\begin{align*}
\begin{align}
\nonumber
\alpha
\norm
{
u
_
\nu
- u
_{
\nu
-
\frac
{
1
}{
N
}}}^
2
&
\le
\phi
(u
_{
\nu
-
\frac
{
1
}{
N
}}
) -
\phi
(u
_
\nu
) + D
\phi
(u
_
\nu
)(u
_
\nu
- u
_{
\nu
-
\frac
{
1
}{
N
}}
)
\\
\nonumber
&
\le
\phi
(u
_{
\nu
-
\frac
{
1
}{
N
}}
) -
\phi
(u
_
\nu
) +
\psi
(u
_{
\nu
-
\frac
{
1
}{
N
}}
) -
\psi
(u
_
\nu
)
\\
\label
{
eq:values
_
bound
_
square
}
&
=
J(u
_{
\nu
-
\frac
{
1
}{
N
}}
) - J(u
_
\nu
).
\end{align
*
}
\end{align}
\end{itemize}
...
...
@@ -9924,19 +9931,18 @@ Dabei sind die Indizes mod $N$ zu verstehen.
\medskip
Sei
$
k
\in
\{
j
-
N
+
1
,
\dots
, j
\}
$
.
Wir rechnen
Für ein
$
k
\in
\{
j
-
N
+
1
,
\dots
, j
\}
$
rechnen wir
\begin{align*}
D
\phi
(u
_{
n+
\frac
{
k
}{
N
}}
)(
\sum
_{
m = j-N+1
}^
k P
_
m(u
_
\nu
- u))
D
\phi
(u
_{
n+
\frac
{
k
}{
N
}}
)
\Big
(
\sum
_{
m = j-N+1
}^
k P
_
m(u
_
\nu
- u)
\Big
)
&
=
D
\phi
(u
_{
n+
\frac
{
k
}{
N
}}
)(
\sum
_{
m = j-N+1
}^{
k-1
}
P
_
m(u
_
\nu
- u))
D
\phi
(u
_{
n+
\frac
{
k
}{
N
}}
)
\Big
(
\sum
_{
m = j-N+1
}^{
k-1
}
P
_
m(u
_
\nu
- u)
\Big
)
+ D
\phi
(u
_{
n+
\frac
{
k
}{
N
}}
)(P
_
k(u
_
\nu
- u))
\\
&
\text
{
(wegen Linearität von
$
D
\phi
$
im zweiten Argument)
}
\\
&
\le
D
\phi
(u
_{
n+
\frac
{
k
}{
N
}}
)(
\sum
_{
m = j-N+1
}^{
k-1
}
P
_
m(u
_
\nu
- u))
D
\phi
(u
_{
n+
\frac
{
k
}{
N
}}
)
\Big
(
\sum
_{
m = j-N+1
}^{
k-1
}
P
_
m(u
_
\nu
- u)
\Big
)
+
\psi
(u
_{
n +
\frac
{
k
}{
N
}}
- P
_
k(u
_
\nu
- u))
\\
&
\qquad
-
\psi
(u
_{
n +
\frac
{
k
}{
N
}}
).
\qquad
(
\text
{
wegen~
\eqref
{
eq:nonsmooth
_
bounds
_
smooth
}}
)
\end{align*}
Indem wir diese Abschätzung nacheinander für
$
k
=
j, j
-
1
,
\dots
, j
-
N
+
1
$
...
...
@@ -9946,32 +9952,37 @@ anwenden bekommen wir
\le
\sum
_{
k=j-N+1
}^
j
\Big
(
\psi
(u
_{
n+
\frac
{
k
}{
N
}}
- P
_
k(u
_
\nu
- u)) -
\psi
(u
_{
n+
\frac
{
k
}{
N
}}
)
\Big
)
\\
+
\sum
_{
k=j-N+1
}^
j
\Big
(D
\phi
(u
_{
n+
\frac
{
k
}{
N
}}
)
(
\cdot
)
- D
\phi
(u
_{
n+
\frac
{
k-1
}{
N
}}
)
(
\cdot
)
\Big
)
\sum
_{
k=j-N+1
}^
j
\Big
(D
\phi
(u
_{
n+
\frac
{
k
}{
N
}}
) - D
\phi
(u
_{
n+
\frac
{
k-1
}{
N
}}
)
\Big
)
\Big
(
\sum
_{
m=j-N+1
}^{
k-1
}
P
_
m(u
_
\nu
- u)
\Big
)
\end{multline*}
Das schätzen wir weiter ab, und erhalten
\begin{align*}
\begin{align}
\nonumber
D
\phi
(u
_
\nu
)(u
_
\nu
- u)
&
\le
\sum
_{
k=j-N+1
}^
j
\Big
(
\psi
(u
_{
n+
\frac
{
k
}{
N
}}
- P
_
k(u
_
\nu
- u)) -
\psi
(u
_{
n+
\frac
{
k
}{
N
}}
)
\Big
)
\\
\nonumber
&
+
\Bigg
|
\sum
_{
k=j-N+1
}^
j
\
Big
(
D
\phi
(u
_{
n+
\frac
{
k
}{
N
}}
)
(
\cdot
)
- D
\phi
(u
_{
n+
\frac
{
k-1
}{
N
}}
)
(
\cdot
)
\Big
)
\
Big
(
\sum
_{
m=j-N+1
}^{
k-1
}
P
_
m(u
_
\nu
- u)
\Big
)
\Bigg
|
\\
\sum
_{
k=j-N+1
}^
j
\
norm
[\bigg]
{
D
\phi
(u
_{
n+
\frac
{
k
}{
N
}}
) - D
\phi
(u
_{
n+
\frac
{
k-1
}{
N
}}
)
}_{
X
^
*
}
\
norm
[\bigg]
{
\sum
_{
m=j-N+1
}^{
k-1
}
P
_
m(u
_
\nu
- u)
}_
X
\\
&
\le
\sum
_{
k=j-N+1
}^
j
\Big
(
\psi
(u
_{
n+
\frac
{
k
}{
N
}}
- P
_
k(u
_
\nu
- u)) -
\psi
(u
_{
n+
\frac
{
k
}{
N
}}
)
\Big
)
\\
\nonumber
&
+
L
\sum
_{
k=j-N+1
}^
j
\norm
{
u
_{
n+
\frac
{
k
}{
N
}}
- u
_{
n+
\frac
{
k-1
}{
N
}}}_
{
X
^
*
}
L
\sum
_{
k=j-N+1
}^
j
\norm
{
u
_{
n+
\frac
{
k
}{
N
}}
- u
_{
n+
\frac
{
k-1
}{
N
}}}_
X
\qquad
(
\text
{
Lipschitz-Stetigkeit von
$
D
\phi
$}
)
\\
\label
{
eq:bound
_
on
_
Dphi
}
&
\cdot
C
_
X
\norm
{
u
_
\nu
- u
}
\qquad
(
\text
{
Stabilität der Zerlegung
$
\{
X
_
i
\}
$}
)
\end{align
*
}
\end{align}
\paragraph
{
Nächster Teilschritt
}
\mbox
{}
Als nächstes schätzen wir den nichtglatten Term
\begin{equation*}
\begin{equation}
\label
{
eq:nonsmooth
_
sum
}
\sum
_{
k=j-N+1
}^
j
\Big
(
\psi
(u
_{
n+
\frac
{
k
}{
N
}}
- P
_
k(u
_
\nu
- u)) -
\psi
(u
_{
n+
\frac
{
k
}{
N
}}
)
\Big
)
\end{equation
*
}
\end{equation}
ab. Dazu nutzen wir die Separabilität von
$
\psi
$
.
\medskip
...
...
@@ -9985,16 +9996,15 @@ Nach Konstruktion des Algorithmus ist
\forall
k
\in
\{
j-N+1,
\dots
, j
\}
.
\end{equation*}
Wegen der Separierbarkeit~
\eqref
{}
erhält man
\begin{equation*}
Wegen der Separierbarkeit~
\eqref
{
eq:nonsmooth
_
independence
}
erhält man
\begin{equation}
\label
{
eq:carstensen
_
3.7
}
\psi
(P
_
k(u
_{
n+
\frac
{
k
}{
N
}}
- u
_
\nu
) + P
_
k u) =
\psi
(P
_
k u)
\end{equation*}
und
\begin{equation*}
\qquad
\text
{
und
}
\qquad
\psi
(P
_
k(u
_{
n+
\frac
{
k
}{
N
}}
)) =
\psi
(P
_
k u
_
\nu
).
\end{equation
*
}
\end{equation}
Jetzt schauen wir uns einen Summanden von~
\eqref
{}
an:
Jetzt schauen wir uns einen Summanden von~
\eqref
{
eq:nonsmooth
_
sum
}
an:
\begin{align*}
\psi
(u
_{
n+
\frac
{
k
}{
N
}}
- P
_
k(u
_
\nu
- u)) -
\psi
(u
_{
n +
\frac
{
k
}{
N
}}
)
&
=
...
...
@@ -10003,21 +10013,22 @@ Jetzt schauen wir uns einen Summanden von~\eqref{} an:
\sum
_{
m=j-N+1
}^
j
\psi
( P
_
m (u
_{
n+
\frac
{
k
}{
N
}}
- P
_
k(u
_
\nu
- u))) -
\sum
_{
m=j-N+1
}^
j
\psi
(P
_
m u
_{
n +
\frac
{
k
}{
N
}}
)
\\
&
\qquad
(
\text
{
Separierbarkeit
}
)
\end{align*}
Wegen
[2.8]
erhält man
Wegen
~
\eqref
{
eq:nonsmooth
_
independence
}
erhält man
\begin{equation*}
=
\psi
( P
_
k u
_{
n+
\frac
{
k
}{
N
}}
- P
_
k P
_
k(u
_
\nu
- u)) -
\psi
(P
_
k u
_{
n +
\frac
{
k
}{
N
}}
)
\end{equation*}
Wegen [3.7] erhält man
\begin{equation*}
Wegen
\eqref
{
eq:carstensen
_
3.7
}
erhält man
\begin{equation}
\label
{
eq:nonsmooth
_
intermediate
_
bound
}
\psi
(u
_{
n+
\frac
{
k
}{
N
}}
- P
_
k(u
_
\nu
- u)) -
\psi
(u
_{
n +
\frac
{
k
}{
N
}}
)
=
\psi
(
\
P
_
k u) -
\psi
(P
_
k u
_
\nu
).
\end{equation
*
}
\psi
(P
_
k u) -
\psi
(P
_
k u
_
\nu
).
\end{equation}
\paragraph
{
Nächster Teilschritt
}
\mbox
{}
Das bauen wir in
[3.5] ein. [3.5]
sagt
Das bauen wir in
~
\eqref
{
eq:bound
_
on
_
Dphi
}
ein. Zur Erinnerung:
\eqref
{
eq:bound
_
on
_
Dphi
}
sagt
\begin{multline*}
D
\phi
(u
_
\nu
)(u
_
\nu
- u)
\le
...
...
@@ -10031,24 +10042,24 @@ Mit der Abschätzung für $\psi$ ergibt das
\le
C
_
X L
\norm
{
u - u
_
\nu
}_
X
\cdot
\sum
_{
k=j-N+1
}^
j
\norm
{
u
_{
n+
\frac
{
k
}{
N
}}
- u
_{
n+
\frac
{
k-1
}{
N
}}}_
X
\\
+
\underbrace
{
\sum
_{
k=j-N+1
}^
j (
\psi
(P
_
ku) -
\psi
(P
_
k u
_
\nu
))
}_{
=
\psi
(u) -
\psi
(u
_
\nu
),
\text
{
wegen ???
}}
.
\underbrace
{
\sum
_{
k=j-N+1
}^
j (
\psi
(P
_
ku) -
\psi
(P
_
k u
_
\nu
))
}_{
\text
{$
=
\psi
(
u
)
-
\psi
(
u
_
\nu
)
$
,
wegen
\eqref
{
eq:nonsmooth
_
intermediate
_
bound
}
}}
.
\end{multline*}
Wegen~
\eqref
{}
wiederum ist
Wegen~
\eqref
{
eq:values
_
bound
_
square
}
wiederum ist
\begin{equation*}
\norm
{
u
_{
n +
\frac
{
k
}{
N
}}
- u
_{
n +
\frac
{
k-1
}{
N
}}}^
2
\le
\frac
{
1
}{
\alpha
}
\Big
(
f
(u
_{
n +
\frac
{
k-1
}{
N
}}
) -
f
(u
_{
n +
\frac
{
k
}{
N
}}
)
\Big
),
\frac
{
1
}{
\alpha
}
\Big
(
J
(u
_{
n +
\frac
{
k-1
}{
N
}}
) -
J
(u
_{
n +
\frac
{
k
}{
N
}}
)
\Big
),
\end{equation*}
und deshalb
\begin{equation*}
D
\phi
(u
_
\nu
)(u
_
\nu
- u)
\le
C
_
X L
\frac
{
1
}{
\sqrt
{
\alpha
}}
\sum
_{
k=j-N+1
}^
j
\Big
(
f
(u
_{
n +
\frac
{
k-1
}{
N
}}
) -
f
(u
_{
n +
\frac
{
k
}{
N
}}
)
\Big
)
^
\frac
{
1
}{
2
}
.
\sum
_{
k=j-N+1
}^
j
\Big
(
J
(u
_{
n +
\frac
{
k-1
}{
N
}}
) -
J
(u
_{
n +
\frac
{
k
}{
N
}}
)
\Big
)
^
\frac
{
1
}{
2
}
.
\end{equation*}
Schreibe zur Abkürzung
\begin{equation*}
\delta
_
\mu
\colonequals
f
(u
_
\mu
) -
f
(u)
\delta
_
\mu
\colonequals
J
(u
_
\mu
) -
J
(u)
\qquad
\text
{
und
}
\qquad
\epsilon
_
\mu
\colonequals
\norm
{
u-u
_
\mu
}_
X.
\end{equation*}
...
...
@@ -10058,7 +10069,7 @@ Dann erhält man
\alpha
\epsilon
_
\nu
^
2 +
\delta
_
\nu
&
\le
C
_
X L
\alpha
^{
-1/2
}
\epsilon
_
\nu
\cdot
\sum
_{
\mu
=
\nu
-1 +
\frac
{
1
}{
N
}}
(
\delta
_{
\mu
-
\frac
{
1
}{
N
}}
-
\delta
_
\mu
)
^{
1/2
}
\\
\sum
_{
\mu
=
\nu
-1 +
\frac
{
1
}{
N
}}
^
j
(
\delta
_{
\mu
-
\frac
{
1
}{
N
}}
-
\delta
_
\mu
)
^{
1/2
}
\\
%
&
\le
\gamma
(
\delta
_{
\nu
-1
}
-
\delta
_
\nu
) +
\frac
{
1
}{
2
}
\alpha
\epsilon
_
\nu
^
2.
...
...
@@ -10071,14 +10082,29 @@ Daraus wiederum folgt
\end{equation*}
Daraus folgt zum einen
\begin{equation*}
\delta
_
\nu
\le
\delta
_
0
\cdot
q
^{
[
\nu
]
}
\delta
_
\nu
\le
q
\cdot
\delta
_{
\nu
-1
}
-
\frac
{
\alpha
}{
2(1+
\gamma
)
}
\epsilon
_
\nu
^
2
\le
q
\cdot
\delta
_{
\nu
-1
}
\le
\delta
_
0
\cdot
q
^{
\nu
}
,
\end{equation*}
\todo
[inline]
{
Carstensen sagt nicht was er mit den eckigen Klammern meint...
}
und zu zum anderen die Behauptung
\begin{equation*}
\norm
{
u - u
_
\nu
}_
X
^
2
\le
C
_
0
\cdot
q
^{
[
\nu
]
}
.
\todo
[inline]
{
Carstensen schreibt hier
$
q
^{
[
\nu
]
}$
sagt nicht
was er damit genau meint...
}
und zum anderen die Behauptung
\begin{align*}
\norm
{
u - u
_
\nu
}_
X
^
2 =
\epsilon
_
\nu
^
2
&
\le
\frac
{
2(1+
\gamma
)
}{
\alpha
}
(q
\delta
_{
\nu
-1
}
-
\delta
_
\nu
)
\\
&
\le
???
\\
&
\le
\underbrace
{
\frac
{
2(1+
\gamma
)
}{
\alpha
}
(J(u
_
0) - J(u))
}_{
=C
_
0
}
\cdot
q
^{
[
\nu
]
}
\\
&
=
C
_
0
\cdot
q
^{
[
\nu
]
}
.
\qedhere
\end{
equatio
n*}
\end{
alig
n*}
\end{proof}
...
...
Write
Preview
Supports
Markdown
0%
Try again
or
attach a new file
.
Attach a file
Cancel
You are about to add
0
people
to the discussion. Proceed with caution.
Finish editing this message first!
Cancel
Please
register
or
sign in
to comment