Skip to content
GitLab
Menu
Projects
Groups
Snippets
Help
Help
Support
Community forum
Keyboard shortcuts
?
Submit feedback
Contribute to GitLab
Sign in
Toggle navigation
Menu
Open sidebar
Sander, Oliver
skript-mehrgitter
Commits
76f0fbdf
Commit
76f0fbdf
authored
Jul 14, 2021
by
Sander, Oliver
Browse files
Separater Konvergenzbeweis für glatte Probleme
Der Beweis für nichtglatte Probleme ist zu technisch.
parent
47e2e82a
Pipeline
#6803
passed with stage
in 3 minutes and 13 seconds
Changes
2
Pipelines
1
Hide whitespace changes
Inline
Side-by-side
skript-mehrgitter-sander.bib
View file @
76f0fbdf
...
...
@@ -193,3 +193,12 @@ year = {2013}
number
=
{3}
,
pages
=
{177--190}
}
@InProceedings
{
lions:1987
,
author
=
{Pierre-Louis Lions}
,
title
=
{On the {S}chwarz alternating method}
,
booktitle
=
{Proceedings of the First International Symposium of Domain Decomposition Methods for Partial Differential Equations}
,
pages
=
{1–-42}
,
year
=
{1987}
,
editor
=
{Roland Glowinski and Gene Golub and G. Meurant and J. Periaux}
,
}
skript-mehrgitter-sander.tex
View file @
76f0fbdf
...
...
@@ -9665,7 +9665,7 @@ Damit haben wir gezeigt, dass die Zerlegung über die Ecken bzw. Kanten eines Gi
\chapter
{
Nichtlineare Gleichungen
}
Mehrgitterverfahren funktionieren auch für manche nichtlineare
n
Probleme, aber die Theorie
Mehrgitterverfahren funktionieren auch für manche nichtlineare Probleme, aber die Theorie
dahinter ist viel weniger gut verstanden.
\medskip
...
...
@@ -9686,15 +9686,21 @@ ist konzeptionell interessanter. Wir beschäftigen uns hier deshalb nur mit Ans
Die grundlegende Idee der Mehrgitterverfahren ändert sich für nichtlineare Probleme nicht:
\begin{itemize}
\item
Ein einfaches
nichtlinear
es Verfahren entfernt die hochfrequenten Anteile
\item
Ein einfaches
iterativ
es Verfahren
(
\glqq
Glätter
\grqq
{}
)
entfernt die hochfrequenten Anteile
des Fehlers.
\item
Die niederfrequenten Anteile können auf einem gröberen Gitter behandelt werden.
\end{itemize}
\bigskip
Wie sehen nichtlineare Glätter aus?
\medskip
Sei
$
X
$
wieder ein endlichdimensionaler Hilbertraum.
\smallskip
Bisher haben wir Probleme der folgenden Art betrachtet: Finde ein
$
x
\in
X
$
so dass
\begin{equation*}
...
...
@@ -9716,32 +9722,36 @@ Im Folgenden betrachten wir wieder Probleme der Bauart
aber
$
a
(
\cdot
,
\cdot
)
$
darf jetzt nichtlinear
\emph
{
im ersten Argument
}
sein.
\begin{example}
Die
$
p
$
-Laplace-Gleichung ist
Die
$
p
$
-Laplace-Gleichung ist
(mit einem
$
p>
1
$
)
\begin{equation*}
-
\div
(
\abs
{
\nabla
u
}^{
p-2
}
\nabla
u) = 0.
\end{equation*}
Testen mit einer Funktion
$
\varphi
$
ergibt
\begin{equation*}
\int
_
\Omega
\abs
{
\nabla
u
}^{
p-2
}
\langle
\nabla
u,
\nabla
\varphi
\rangle
=
\text
{
Randterme
}
.
a(u,
\varphi
)
\colonequals
\int
_
\Omega
\abs
{
\nabla
u
}^{
p-2
}
\langle
\nabla
u,
\nabla
\varphi
\rangle
\,
dx +
\text
{
Randterme
}
= 0.
\end{equation*}
Die ist ein Problem der Art~
\eqref
{
eq:generic
_
nonlinear
_
problem
}
, und die Form
$
a
(
u,
\varphi
)
$
ist linear i
n
$
\varphi
$
.
Die
s
ist ein Problem der Art~
\eqref
{
eq:generic
_
nonlinear
_
problem
}
, und die Form
$
a
(
\cdot
,
\cdot
)
$
ist linear i
m zweiten Argument
.
\end{example}
\bigskip
Wir konstruieren jetzt Schwarz-Verfahren für das nichtlineare Problem~
\eqref
{
eq:generic
_
nonlinear
_
problem
}
.
Sei dafür
wieder
$
\{
X
_
i
\}
_{
i
=
1
}^
n
$
eine Zerlegung von
$
X
$
in Teilräume, nicht
Sei dafür
$
\{
X
_
i
\}
_{
i
=
1
}^
n
$
eine Zerlegung von
$
X
$
in Teilräume, nicht
notwendigerweise direkt.
\medskip
Schwarz-Verfahren für lineare Gleichungen bestanden daraus, dass wir die Defektgleichung
\todo
{
Prüfen!
}
\begin{equation}
\label
{
eq:schwache
_
nichtlineare
_
defektgleichung
}
a(c,w) = (f,w) - a(u
^
k,w)
\qquad
\forall
w
\in
\
X
_
i
\forall
w
\in
X
_
i
\end{equation}
in einem Teilraum
$
X
_
i
$
gelöst
haben
, und das Ergebnis
$
c
\in
X
_
i
$
als Korrektur benutzt haben:
in einem Teilraum
$
X
_
i
$
gelöst, und das Ergebnis
$
c
\in
X
_
i
$
als Korrektur benutzt haben:
\begin{equation*}
u
^{
k+1
}
= u
^
k + c.
\end{equation*}
...
...
@@ -9761,23 +9771,58 @@ Ansonsten kann man aber die Schwarz-Verfahren auch für nichtlineare Probleme du
\item
Die Teilprobleme~
\eqref
{
eq:schwache
_
nichtlineare
_
defektgleichung
}
löst man dann
z.B.
\
mit einem Newton-Löser.
\item
Wobei natürlich im allgemeinen Fall völlig unklar ist ob
es überhaupt eine
Lösung
gib
t. Oder vielleicht gleich mehrere.
\item
Wobei natürlich im allgemeinen Fall völlig unklar ist ob
~
\eqref
{
eq:schwache
_
nichtlineare
_
defektgleichung
}
überhaupt eine
Lösung
ha
t. Oder vielleicht gleich mehrere.
\end{itemize}
\subsection
{
Multiplikative Schwarz-Verfahren für stark konvexe Minimierungsprobleme
}
Wir würden jetzt gerne wissen unter welchen Bedingungen solche Schwarz-Verfahren
konvergieren, und ob sie immer noch Glättungseigenschaften haben.
\medskip
Rigorose Ergebnisse gibt es allerdings nur in wenigen Spezialfällen.
Das Folgende stammt aus einem Artikel von
\citet
{
carstensen:1997
}
.
Das Folgende stammt aus einem Artikel von
\citet
{
lions:1987
}
, die Notation
ist aber von
\citet
{
carstensen:1997
}
.
\medskip
In gewissem Sinne handelt es sich um die einfachsten nichtlinearen Probleme.
Manche partielle Differentialgleichungen lassen sich als Minimierungsprobleme
auf einem Funktionenraum schreiben.
\todo
[inline]
{
Erklären dass manche Probleme Minimierungsprobleme sind.
}
\begin{example}
\label
{
ex:pde
_
minimization
_
problems
}
Lösungen der Laplace-Gleichung
$
-
\Delta
u
=
0
$
minimieren die sogenannte
\emph
{
Dirichlet-Energie
}
\begin{equation*}
\mathcal
{
J
}
: H
^
1(
\Omega
)
\to
\R
\qquad
\mathcal
{
J
}
(u)
\colonequals
\frac
{
1
}{
2
}
\int
_
\Omega
\norm
{
\nabla
u
}^
2
\,
dx.
\end{equation*}
Allgemeiner minimieren Lösungen der
$
p
$
-Laplace-Gleichung die Energie
\begin{equation*}
\mathcal
{
J
}^
p : W
^{
1,p
}
(
\Omega
)
\to
\R
\qquad
\mathcal
{
J
}^
p(u)
\colonequals
\frac
{
1
}{
p
}
\int
_
\Omega
\norm
{
\nabla
u
}^
p
\,
dx.
\end{equation*}
\end{example}
\begin{exercise}
Zeigen Sie dass die Fréchet-Ableitung von
$
\mathcal
{
J
}^
p
$
an der Stelle
$
u
$
gerade
\begin{equation*}
D
\mathcal
{
J
}^
p(u)(
\cdot
)
=
\int
_
\Omega
\norm
{
\nabla
u
}^{
p-2
}
\langle
\nabla
u,
\nabla
\cdot\rangle\,
dx
\end{equation*}
ist.
\end{exercise}
Manche solcher Funktionale, z.B.
\
die aus Beispiel~
\ref
{
ex:pde
_
minimization
_
problems
}
sind konvex. In gewissem Sinne sind das die einfachsten nichtlinearen Probleme.
\bigskip
Sei
$
\phi
: X
\to
\R
$
ein Fréchet-differenzierbares Funktional mit
uniform-elliptischer und Lipschitz-stetiger Fréchet-Ableitung
$
D
\phi
$
.
...
...
@@ -9791,6 +9836,8 @@ für alle $u,v \in X$
\norm
{
D
\phi
(u)(
\cdot
) - D
\phi
(v)(
\cdot
)
}_{
X
^
*
}
&
\le
L
\norm
{
u-v
}_
X.
\end{align*}
Gesucht ist jetzt der eindeutige Minimierer von
$
\phi
$
in
$
X
$
.
\begin{exercise}
Zeigen Sie: Aus der ersten Bedingung folgt dass
$
\phi
$
\emph
{
stark konvex
}
ist,
dass also
...
...
@@ -9803,12 +9850,222 @@ für alle $u,v \in X$
\todo
[inline]
{
Bin nicht sicher ob
$
\alpha
$
oder
$
\frac
{
\alpha
}{
2
}$
richtig ist.
}
\end{exercise}
Gesucht ist jetzt der eindeutige Minimierer von
$
\phi
$
über
$
X
$
.
\bigskip
Das eben beschriebene Szenario beinhaltet schon ein paar interessante Probleme,
aber wir betrachten dennoch einen etwas allgemeineren Fall.
Wir betrachten das folgende multiplikative Schwarz-Verfahren.
\begin{itemize}
\item
Sei
$
u
_
n
\in
X
$
die aktuelle Iterierte.
\item
Für alle
$
j
=
1
,
\dots
, N
$
berechne
\begin{equation*}
u
_{
n +
\frac
{
j
}{
N
}}
=
\argmin
_{
v
\in
u
_{
n+
\frac
{
j-1
}{
N
}}
+ X
_
j
}
\phi
(v).
\end{equation*}
\end{itemize}
Eine Iteration des Schwarz-Verfahrens ist also eine Folge von Minimierungsproblemen
in den Räumen
$
X
_
1
,
\dots
,X
_
N
$
.
\begin{exercise}
Zeige: Wenn
$
\phi
$
quadratisch ist, also
\begin{equation*}
\phi
(v) =
\frac
{
1
}{
2
}
a(v,v) - (f,v)
\end{equation*}
mit einer symmetrischen, elliptischen Bilinearform
$
a
(
\cdot
,
\cdot
)
$
,
dann erhält man genau das multiplikative Schwarz-Verfahren aus Kapitel~
\ref
{}
.
\end{exercise}
Da
$
\phi
$
stark konvex und koerzitiv ist hat jedes der lokalen Minimierungsprobleme
eine eindeutige Lösung. Der Algorithmus ist also durchführbar.
\begin{exercise}
Zeigen Sie dass
$
\phi
$
koerzitiv ist, dass also
$
\phi
(
v
)
\to
\infty
$
für
$
v
\to
\infty
$
.
\end{exercise}
Für den Konvergenzsatz brauchen wir noch Projektionsoperatoren
$
P
_
j : X
\to
X
_
j
$
so dass
\begin{equation*}
P
_
1 +
\cdots
+ P
_
N =
\operatorname
{
Id
}
.
\end{equation*}
Weiterhin brauchen wir eine Stabilitätsbedingung: Es soll eine Konstante
$
C
_
X >
0
$
geben, so dass für alle Teilmengen
$
\Lambda
\subseteq
\{
1
,
\dots
,N
\}
$
und alle
$
x
\in
X
$
\begin{equation*}
\norm
[\Big]
{
\sum
_{
j
\in
\Lambda
}
P
_
j x
}_
X
\le
C
_
X
\norm
{
x
}_
X.
\end{equation*}
Das ist ähnlich wie die Stabilitätsbedingung aus dem vorigen Kapitel,
aber nicht ganz das gleiche.
\begin{theorem}
[
\citet
{
lions:1987
}
,
\citet
{
carstensen:1997
}
]
Sei
$
u
$
der Minimierer von
$
J
$
in
$
X
$
, und sei
$
(
u
_
\nu
)
$
die durch das Schwarz-Verfahren
erzeugte Folge mit Startwert
$
u
_
0
$
. Setze
\begin{align*}
\gamma
&
\colonequals
\frac
{
N C
_
X
^
2 L
^
2
}{
2
\alpha
^
2
}
\\
q
&
\colonequals
\frac
{
\gamma
}{
1+
\gamma
}
\\
C
_
0
&
\colonequals
\frac
{
2(1+
\gamma
)
}{
\alpha
}
(
\phi
(u
_
0) -
\phi
(u)).
\end{align*}
Dann gilt
\begin{equation*}
\norm
{
u - u
_
\nu
}_
X
^
2
\le
C
_
0 q
^
\nu
.
\end{equation*}
\end{theorem}
\begin{proof}
Sei
$
\nu
=
n
+
\frac
{
j
}{
N
}
\ge
1
$
.
\begin{itemize}
\item
Nach Konstruktion ist
$
u
_
\nu
$
der Minimierer von
$
\phi
$
in
$
X
_
j
$
.
\item
Weil
$
\phi
$
Fréchet-differenzierbar ist gilt
\begin{equation}
\label
{
eq:derivative
_
is
_
zero
}
D
\phi
(u
_
\nu
)(
\eta
) = 0
\qquad
\forall
\eta
\in
X
_
j.
\end{equation}
\item
Zusammen mit der Elliptizität von
$
D
\phi
$
können wir den Abstand
zwischen aufeinanderfolgenden Iterierten durch Funktionswerte abschätzen
\begin{align}
\nonumber
\alpha
\norm
{
u
_
\nu
- u
_{
\nu
-
\frac
{
1
}{
N
}}}^
2
&
\le
\phi
(u
_{
\nu
-
\frac
{
1
}{
N
}}
) -
\phi
(u
_
\nu
) + D
\phi
(u
_
\nu
)(u
_
\nu
- u
_{
\nu
-
\frac
{
1
}{
N
}}
)
\\
\label
{
eq:values
_
bound
_
square
_
smooth
}
&
=
\phi
(u
_{
\nu
-
\frac
{
1
}{
N
}}
) -
\phi
(u
_
\nu
).
\end{align}
\end{itemize}
Jetzt zerlegen wir den Fehler in Teilräume
\begin{equation*}
u
_
\nu
- u =
\sum
_{
k = j - N+1
}^
j P
_
k(u
_
\nu
- u).
\end{equation*}
Dabei sind die Indizes mod
$
N
$
zu verstehen.
\medskip
Für ein
$
k
\in
\{
j
-
N
+
1
,
\dots
, j
\}
$
rechnen wir
\begin{align*}
D
\phi
(u
_{
n+
\frac
{
k
}{
N
}}
)
\Big
(
\sum
_{
m = j-N+1
}^
k P
_
m(u
_
\nu
- u)
\Big
)
&
=
D
\phi
(u
_{
n+
\frac
{
k
}{
N
}}
)
\Big
(
\sum
_{
m = j-N+1
}^{
k-1
}
P
_
m(u
_
\nu
- u)
\Big
)
+
\underbrace
{
D
\phi
(u
_{
n+
\frac
{
k
}{
N
}}
)(P
_
k(u
_
\nu
- u))
}_{
\text
{$
=
0
$
, wegen~
\eqref
{
eq:derivative
_
is
_
zero
}}}
\\
&
\text
{
(wegen Linearität von
$
D
\phi
$
im zweiten Argument)
}
\\
&
=
D
\phi
(u
_{
n+
\frac
{
k
}{
N
}}
)
\Big
(
\sum
_{
m = j-N+1
}^{
k-1
}
P
_
m(u
_
\nu
- u)
\Big
)
\end{align*}
Indem wir diese Abschätzung nacheinander für
$
k
=
j, j
-
1
,
\dots
, j
-
N
+
1
$
anwenden bekommen wir
\begin{multline*}
D
\phi
(u
_
\nu
)(u
_
\nu
- u)
\le
\sum
_{
k=j-N+1
}^
j
\Big
(D
\phi
(u
_{
n+
\frac
{
k
}{
N
}}
) - D
\phi
(u
_{
n+
\frac
{
k-1
}{
N
}}
)
\Big
)
\Big
(
\sum
_{
m=j-N+1
}^{
k-1
}
P
_
m(u
_
\nu
- u)
\Big
)
\end{multline*}
Das schätzen wir weiter ab, und erhalten
\begin{align}
\nonumber
D
\phi
(u
_
\nu
)(u
_
\nu
- u)
&
\le
\sum
_{
k=j-N+1
}^
j
\norm
[\bigg]
{
D
\phi
(u
_{
n+
\frac
{
k
}{
N
}}
) - D
\phi
(u
_{
n+
\frac
{
k-1
}{
N
}}
)
}_{
X
^
*
}
\norm
[\bigg]
{
\sum
_{
m=j-N+1
}^{
k-1
}
P
_
m(u
_
\nu
- u)
}_
X
\\
\nonumber
&
\le
L
\sum
_{
k=j-N+1
}^
j
\norm
{
u
_{
n+
\frac
{
k
}{
N
}}
- u
_{
n+
\frac
{
k-1
}{
N
}}}_
X
\qquad
(
\text
{
Lipschitz-Stetigkeit von
$
D
\phi
$}
)
\\
\label
{
eq:bound
_
on
_
Dphi
_
smooth
}
&
\qquad
\cdot
C
_
X
\norm
{
u
_
\nu
- u
}_
X
\qquad
(
\text
{
Stabilität der Zerlegung
$
\{
X
_
i
\}
$}
)
\end{align}
Wegen~
\eqref
{
eq:values
_
bound
_
square
_
smooth
}
ist
\begin{equation*}
\norm
{
u
_{
n +
\frac
{
k
}{
N
}}
- u
_{
n +
\frac
{
k-1
}{
N
}}}^
2
\le
\frac
{
1
}{
\alpha
}
\Big
(
\phi
(u
_{
n +
\frac
{
k-1
}{
N
}}
) -
\phi
(u
_{
n +
\frac
{
k
}{
N
}}
)
\Big
),
\end{equation*}
und deshalb
\begin{equation*}
D
\phi
(u
_
\nu
)(u
_
\nu
- u)
\le
C
_
X L
\norm
{
u
_
\nu
- u
}_
X
\frac
{
1
}{
\sqrt
{
\alpha
}}
\sum
_{
k=j-N+1
}^
j
\Big
(
\phi
(u
_{
n +
\frac
{
k-1
}{
N
}}
) -
\phi
(u
_{
n +
\frac
{
k
}{
N
}}
)
\Big
)
^
\frac
{
1
}{
2
}
.
\end{equation*}
Schreibe zur Abkürzung
\begin{equation*}
\delta
_
\mu
\colonequals
\phi
(u
_
\mu
) -
\phi
(u)
\qquad
\text
{
und
}
\qquad
\epsilon
_
\mu
\colonequals
\norm
{
u-u
_
\mu
}_
X.
\end{equation*}
Aus der Elliptizität von
$
D
\phi
$
erhält man
\begin{equation*}
\alpha
\norm
{
u
_
\nu
- u
}_
X
^
2 +
\phi
(u
_
\nu
) -
\phi
(u)
\le
D
\phi
(u
_
\nu
)(u
_
\nu
- u),
\end{equation*}
und mit der Kurzschrift
\begin{align*}
\alpha
\epsilon
_
\nu
^
2 +
\delta
_
\nu
&
\le
D
\phi
(u
_
\nu
)(u
_
\nu
- u)
\\
&
\le
C
_
X L
\alpha
^{
-1/2
}
\epsilon
_
\nu
\cdot
\sum
_{
k = j - N+1
}^
j (
\delta
_{
n +
\frac
{
k-1
}{
N
}}
-
\delta
_{
n+
\frac
{
k
}{
N
}}
)
^{
1/2
}
\\
&
\le
C
_
X L
\alpha
^{
-1/2
}
\epsilon
_
\nu
\cdot
\sum
_{
\mu
=
\nu
-1 +
\frac
{
1
}{
N
}}^
j (
\delta
_{
\mu
-
\frac
{
1
}{
N
}}
-
\delta
_
\mu
)
^{
1/2
}
\\
%
&
\le
\gamma
(
\delta
_{
\nu
-1
}
-
\delta
_
\nu
) +
\frac
{
1
}{
2
}
\alpha
\epsilon
_
\nu
^
2.
\end{align*}
\todo
[inline]
{
Indexverschiebung im vorletzten Schritt prüfen!
}
Daraus wiederum folgt
\begin{equation*}
\frac
{
\alpha
}{
2(1+
\gamma
)
}
\cdot
\epsilon
^
2
_
\nu
+
\delta
_
\nu
\le
q
\cdot
\delta
_{
\nu
-1
}
.
\end{equation*}
Daraus folgt zum einen
\begin{equation*}
\delta
_
\nu
\le
q
\cdot
\delta
_{
\nu
-1
}
-
\frac
{
\alpha
}{
2(1+
\gamma
)
}
\epsilon
_
\nu
^
2
\le
q
\cdot
\delta
_{
\nu
-1
}
\le
\delta
_
0
\cdot
q
^{
\nu
}
,
\end{equation*}
\todo
[inline]
{
Carstensen schreibt hier
$
q
^{
[
\nu
]
}$
sagt nicht
was er damit genau meint...
}
und zum anderen die Behauptung
\begin{align*}
\norm
{
u - u
_
\nu
}_
X
^
2 =
\epsilon
_
\nu
^
2
&
\le
\frac
{
2(1+
\gamma
)
}{
\alpha
}
(q
\delta
_{
\nu
-1
}
-
\delta
_
\nu
)
\\
&
\le
???
\\
&
\le
\underbrace
{
\frac
{
2(1+
\gamma
)
}{
\alpha
}
(
\phi
(u
_
0) -
\phi
(u))
}_{
=C
_
0
}
\cdot
q
^{
\nu
}
\\
&
=
C
_
0
\cdot
q
^{
\nu
}
.
\qedhere
\end{align*}
\end{proof}
\subsection
{
Erweiterung auf nichtdifferenzierbare Funktionale
}
Wir betrachten jetzt noch einen etwas allgemeineren Fall.
Dieser wurde von
\citeauthor
{
carstensen:1997
}
in~
\cite
{
carstensen:1997
}
untersucht.
\medskip
...
...
@@ -9836,38 +10093,21 @@ Außerdem brauchen wir dass für alle $x_j \in X_j$ und $y_j \in \sum_{k=1,k\neq
\label
{
eq:nonsmooth
_
independence
}
\psi
(x
_
j + P
_
j y
_
j) =
\psi
(x
_
j).
\end{equation}
\todo
[inline]
{
Definieren
$
P
_
j
$
!
}
\todo
[inline]
{
Diese Bedingung besser erklären!
}
\bigskip
Wir betrachten das folgende multiplikative Schwarz-Verfahren.
\begin{itemize}
\item
Sei
$
u
_
j
\in
X
$
die aktuelle Iterierte.
\item
Für alle
$
j
=
1
,
\dots
, N
$
\begin{equation*}
u
_{
n +
\frac
{
j
}{
N
}}
=
\argmin
_{
v
\in
u
_{
n+
\frac
{
j-1
}{
N
}}
+ X
_
j
}
J(v).
\end{equation*}
\end{itemize}
\begin{exercise}
Zeige: Wenn
$
J
$
quadratisch ist, also
\begin{example}
Ein Beispiel für so ein Funktional ist
\begin{equation*}
J(v) =
\frac
{
1
}{
2
}
a(v,v) - (f,v)
X =
\R
^
N,
\qquad
X
_
i =
\{
v
\in
\R
^
N
\;
:
\;
v
_
j = 0
\text
{
falls
$
i
\neq
j
$}
\}
,
\qquad
\psi
(v) =
\sum
_{
i=1
}^
N
\abs
{
v
_
i
}
.
\end{equation*}
mit einer symmetrischen, elliptischen Bilinearform
$
a
(
\cdot
,
\cdot
)
$
,
dann erhält man genau das multiplikative Schwarz-Verfahren aus Kapitel~
\ref
{}
.
\end{exercise}
Da
$
J
$
strikt konvex und koerzitiv ist hat jedes der lokalen Minimierungsprobleme
eine eindeutige Lösung. Der Algorithmus ist also durchführbar.
\begin{exercise}
Zeigen Sie dass
$
J
$
koerzitiv ist.
\end{exercise}
\end{example}
Man erhält genau das gleiche Konvergenzresultat wie im glatten Fall.
\begin{theorem}
Sei
$
u
$
der Minimierer von
$
J
$
in
$
X
$
, und sei
$
(
u
_
\nu
)
$
die durch das Schwarz-Verfahren
...
...
Write
Preview
Supports
Markdown
0%
Try again
or
attach a new file
.
Attach a file
Cancel
You are about to add
0
people
to the discussion. Proceed with caution.
Finish editing this message first!
Cancel
Please
register
or
sign in
to comment