Zum Inhalt springen

Ing Mathematik: Numerisches Lösen nichtlinearer Gleichungen

Aus Wikibooks


Nullstellenprobleme

[Bearbeiten]

Nullstellen (oder Wurzeln) einer Funktion sind diejenigen Punkte, welche die x-Achse berühren oder schneiden (y=0). Wichtig sind insbesondere die Fragen

  • existieren Nullstellen,
  • in welchem Bereich liegen sie und
  • wieviele Nullstellen gibt es?

Zwischenwertsatz

[Bearbeiten]
Bernard Bolzano (böhmischer Mathematiker, 1781-1848)

Eine stetige Funktion nimmt jeden Wert zwischen und an. Mit ist der Zwischenwertsatz für die Lösung von Nullstellenproblemen wichtig. Man nennt ihn dann auch Nullstellensatz (von Bolzano). Er besagt dann: Haben und verschiedene Vorzeichen, so existiert mindestens eine Nullstelle von im Intervall .

Siehe zu diesem Thema insbesondere  Zwischenwertsatz.

Bisektion

[Bearbeiten]

Das Bisektions- oder Intervallhalbierungsverfahren kann benutzt werden, um Nullstellen grob zu bestimmen. Es ist bei Weitem nicht das schnellste Verfahren um Nullstellen genau zu bestimmen. Allerdings konvergieren die schnelleren Verfahren nicht immer und das Bisektionsverfahren kann hier ggf. Hilfestellung leisten. Das Bisektionsverfahren läuft wie folgt ab:

Sei mit stetig.

In jedem der erzeugten Intervalle gibt es eine Nullstelle von .

Natürlich kann man auch das Bisektionsverfahren durch ein Python-Programm realisieren:

import numpy as np

def funktion(x):
    y = x**3-x+0.3
    return y

def bisektion(a, b, maxit):
    ai = a
    bi = b

    for i in np.arange(0, maxit):
        if funktion((ai+bi)/2.) * funktion(ai) <= 0.:
            bi = (ai+bi) / 2.
        else:
            ai = (ai+bi) / 2.
        print(ai, bi)

bisektion(0., 0.5, 10)

Ausgabe:

0.25 0.5
0.25 0.375
0.3125 0.375
0.3125 0.34375
...
0.3388671875 0.33935546875

Die Zahlenwerte für das Polynom in funktion und das Startintervall wurden aus einem Beispiel in Knorrenschild: Seite 27 entnommen. Die anderen Nullstellen lassen sich genauso bestimmen. Es muss nur das Startintervall entsprechend gesetzt werden.

Auch SciPy bietet eine vorgefertigte Funktion namens scipy.optimize.bisect:

from scipy.optimize import bisect

def funktion(x):
    y = x**3-x+0.3
    return y

print (bisect(funktion, 0., 0.5))

Ausgabe:

0.33893624159645697

Die Nullstellen des Beispiels und den Graphen allgemein zeigt folgender Plot:

Fixpunktiteration

[Bearbeiten]

Gleichungen der Form (Fixpunktgleichungen) sollen gelöst werden. In diese Form muss die Gleichung umgeformt werden. Anschließend wird eine Startnäherung gewählt und berechnet und weiter iterativ verfeinert etc. Unter bestimmten Voraussetzungen nähert sich die Folge einer Lösung des ursprünglichen Problems an.

Für weitere Details siehe z.B.  Fixpunktiteration.

Beispiel:

Fixpunktgleichung:
Startwert:
Iterationen:

Sehr einfach lässt sich das auch mittels Python-Programm rechnen:

import numpy as np

x_i = 1. 

for i in np.arange(0, 10):
    x_i = 10 - np.log10(x_i)
    print(x_i)

Ausgabe:

10.0
9.0
9.045757490560675
...
9.043655967157635

Banachscher Fixpunktsatz

[Bearbeiten]
Stefan Banach (polnischer Mathematiker, 1892-1945)

Mit dem banachschen Fixpunktsatz lässt sich die Konvergenz von iterativen Verfahren (wie z.B. dem Newton-Verfahren) zeigen. S. Banach veröffentlichte diesen Satz im Jahr 1922.

Eine Abbildung heißt kontrahierend, wenn mit . heißt auch Kontraktionszahl von . Daraus folgt: hat genau einen Fixpunkt. Die Iterationsfolge konvergiert gegen diesen Fixpunkt. Der Startwert sei .

Es gelten die

  • a-priori-Fehlerabschätzung:

und die

  • a-posteriori-Fehlerabschätzung:

mit

Siehe auch  Fixpunktsatz von Banach. Für die Beweise siehe z.B. Meister: Seite 30ff oder auch Burg, Haf, Wille, Meister: Bd. I, Seite 72ff, Burg, Haf, Wille, Meister: Bd. VI, Seite 20f.

Newton-Verfahren

[Bearbeiten]
Isaac Newton (englischer Mathematiker und Naturwissenschaftler, 1643-1727)

Steigung der Tangente:

Mit der Tangente wird ein Dreieck aufgespannt:

oder allgemein

Obiges Beispiel mit der von SciPy bereitgestellten Funktion newton liefert wieder das gewünschte Ergebnis. Der Solver verwendet je nach gelieferten Informationen das Newton-Raphson-Verfahren (kurz: Newton-Verfahren) oder das später vorgestellte Sekantenverfahren oder das Halley-Verfahren. Details siehe auch [1]. Zum Halley-Verfahren siehe  Halley-Verfahren. Es benötigt auch die zweite Ableitung. Wird nur die erste Ableitung angegeben, so kommt das Newton-Verfahren zum Einsatz. Wird keine Ableitung angegeben, so wird das Sekantenverfahren verwendet.

from scipy.optimize import newton

def funktion(x):
    y = x**3 - x + 0.3
    return y

print (newton(funktion, 0.))

Ausgabe:

0.3389362415949407

Siehe auch  Newton-Verfahren.

Heron-Verfahren

[Bearbeiten]

Zur Berechnung von kann das Heron-Verfahren Anwendung finden.

Newton:

Iteration für und :

Python-Code: Es soll berechnet werden,

import numpy as np

def funktion(x, a):
    y = x**2 - a
    return y

def funktion_diff(x, a):
    y = 2*x
    return y

def heron(xstart, a, maxit):
    x_i = xstart

    for i in np.arange(0, maxit):
        x_i = x_i - funktion(x_i, a) / funktion_diff(x_i, a)
        print(x_i)

heron(1.0, 5.0, 10)

Ausgabe:

3.0
2.3333333333333335
2.238095238095238
...
2.23606797749979
2.23606797749979

Zum Prinzip siehe auch  Heron-Verfahren.

Sekantenverfahren

[Bearbeiten]

Iterationsvorschrift:

Startwerte: .

Zur automatischen Berechnung kann einerseits wiederum die SciPy-Funktion newton verwendet werden. Oder man programmiert das Verfahren von Grund auf selbst. Dies sei hier aber nicht gezeigt. Es ist sehr ähnlich zu den Ausführungen beim Newton- oder Heron-Verfahren.

Siehe auch  Sekantenverfahren.

Regula falsi

[Bearbeiten]

Die Regula falsi kombiniert das Sekanten- mit dem Bisektionsverfahren. Näheres siehe  Regula falsi.

Konvergenz

[Bearbeiten]

Iterationsverfahren konvergieren i.A. nicht mit jedem Startwert gegen die gesuchte Lösung . Man unterscheidet zwischen anziehenden () und abstoßenden Fixpunkten (, konvergiert nicht). Vereinfacht gesagt: Wenn der Startwert nahe genug bei der Lösung liegt, so ist der Fixpunkt anziehend.

Die Konvergenzgeschwindigkeit oder Konvergenzordnung : für und . Für muss sein.

Ist

  • , so liegt lineare Konvergenz vor
  • , es liegt quadratische Konvergenz vor.

Das Newton-Verfahren konvergiert quadratisch, ausgenommen es liegt eine mehrfache Nullstelle vor. Dann konvergiert es nur noch linear. Das Sekantenverfahren: konvergiert mit (Quelle: Knorrenschild: Seite 37).

 Konvergenzgeschwindigkeit

Nichtlineare Gleichungssysteme - Newton für Systeme

[Bearbeiten]

Es soll folgendes Gleichungssystem gelöst werden:

Newton:

mit der Jacobi-Matrix

Die Jacobi-Matrix muss invertierbar sein. Bei der konkreten Anwendung wird aber nicht die Inverse der Jacobi-Matrix berechnet, sondern die Lösung in Form eines linearen GS berechnet.

mit

Mit dem gedämpften Newton-Verfahren kann eine bessere Konvergenz erzielt werden (Schrittweitendämpfung).

Mit dem vereinfachtes Newton-Verfahren erspart man sich die laufende Auswertung der Jacobi-Matrix: . Die Konvergenzgeschwindigkeit ist aber schlechter (nur noch linear anstatt quadratisch).

Nachfolgend ein Python-Beispiel, das von den Funktionen her an Hanke-Bourgeois: Seite 174f angelehnt ist. Es wird der Einfachheit halber die SciPy-Funktion fsolve verwendet.

import numpy as np

from scipy.optimize import fsolve

def func(x):
    return [x[0] - 0.25*np.cos(x[0]) + 0.25*np.sin(x[1]),
            x[1] - 0.25*np.cos(x[0]) + 0.5*np.sin(x[1])]

root = fsolve(func,  [0, 0])
print(root)

Ausgabe:

[0.20412903 0.16344858]

Gedruckte Werke (auszugsweise)

[Bearbeiten]
  • Burg, Haf, Wille, Meister: Höhere Mathematik für Ingenieure, Band I: Analysis. 9. Auflage, Springer Vieweg, 2011, ISBN 978-3-8348-1218-6
  • Burg, Haf, Wille, Meister: Partielle Differentialgleichungen und funktionalanalytische Grundlagen, Höhere Mathematik für Ingenieure, Naturwissenschaftler und Mathematiker (Band VI). 5. Auflage, Vieweg+Teubner, 2010, ISBN 978-3-8348-1294-0
  • Hanke-Bourgeois: Grundlagen der Numerischen Mathematik und des Wissenschaftlichen Rechnens. 3. Aufl., Vieweg+Teubner, 2009, ISBN 978-3-8348-0708-3
  • Knorrenschild: Numerische Mathematik, Eine beispielorientierte Einführung. 6. Aufl., Hanser, 2017, ISBN 978-3-446-45161-2
  • Meister: Numerik linearer Gleichungssysteme. 4. Aufl., Vieweg+Teubner, 2011, ISBN 978-3-8348-1550-7