Variationsrechnung - LinkFang.de





Variationsrechnung


Die Variationsrechnung ist eine Sparte der Mathematik, die um die Mitte des 18. Jahrhunderts insbesondere von Leonhard Euler und Joseph-Louis Lagrange entwickelt wurde.[1]

Zentrales Element der Variationsrechnung bildet die Euler-Lagrange-Gleichung

[math]\delta I(x,\delta x) = 0\ ,[/math]

die für [math]I=\int \mathcal{L} dt[/math] gerade zur Lagrange-Gleichung aus der klassischen Mechanik wird.

Grundlagen

Die Variationsrechnung beschäftigt sich mit reellen Funktionen von Funktionen, die auch Funktionale genannt werden. Solche Funktionale können etwa Integrale über eine unbekannte Funktion und ihre Ableitungen sein. Dabei interessiert man sich für stationäre Funktionen, also solche, für die das Funktional ein Maximum, ein Minimum (Extremale) oder einen Sattelpunkt annimmt. Einige klassische Probleme können elegant mit Hilfe von Funktionalen formuliert werden.

Das Schlüsseltheorem der Variationsrechnung ist die Euler-Lagrange-Gleichung, genauer „Euler-Lagrange'sche Differentialgleichung“. Diese beschreibt die Stationaritätsbedingung eines Funktionals. Wie bei der Aufgabe, die Maxima und Minima einer Funktion zu bestimmen, wird sie aus der Analyse kleiner Änderungen um die angenommene Lösung hergeleitet. Die Euler-Lagrangesche Differentialgleichung ist lediglich eine notwendige Bedingung. Weitere notwendige Bedingungen für das Vorliegen einer Extremalen lieferten Adrien-Marie Legendre und Alfred Clebsch sowie Carl Gustav Jacob Jacobi. Eine hinreichende, aber nicht notwendige Bedingung stammt von Karl Weierstraß.

Die Methoden der Variationsrechnung tauchen bei den Hilbertraum-Techniken, der Morsetheorie und bei der symplektischen Geometrie auf. Der Begriff Variation wird für alle Extremal-Probleme von Funktionen verwendet. Geodäsie und Differentialgeometrie sind Bereiche der Mathematik, in denen Variationen eine Rolle spielen. Besonders am Problem der minimalen Oberflächen, die etwa bei Seifenblasen auftreten, wurde viel gearbeitet.

Anwendungsgebiete

Die Variationsrechnung ist die mathematische Grundlage aller physikalischen Extremalprinzipien und deshalb besonders in der theoretischen Physik wichtig, so etwa im Lagrange-Formalismus der klassischen Mechanik bzw. der Bahnbestimmung, in der Quantenmechanik in Anwendung des Prinzips der kleinsten Wirkung und in der statistischen Physik im Rahmen der Dichtefunktionaltheorie. In der Mathematik wurde die Variationsrechnung beispielsweise bei der riemannschen Behandlung des Dirichlet-Prinzips für harmonische Funktionen verwendet. Auch in der Steuerungs- und Regelungstheorie findet die Variationsrechnung Anwendung, wenn es um die Bestimmung von Optimalreglern geht.

Ein typisches Anwendungsbeispiel ist das Brachistochronenproblem: Auf welcher Kurve in einem Schwerefeld von einem Punkt A zu einem Punkt B, der unterhalb, aber nicht direkt unter A liegt, benötigt ein Objekt die geringste Zeit zum Durchlaufen der Kurve? Von allen Kurven zwischen A und B minimiert eine den Ausdruck, der die Zeit des Durchlaufens der Kurve beschreibt. Dieser Ausdruck ist ein Integral, das die unbekannte, gesuchte Funktion, die die Kurve von A nach B beschreibt, und deren Ableitungen enthält.

Ein Hilfsmittel aus der Analysis reeller Funktionen in einer reellen Veränderlichen

Im Folgenden wird eine wichtige Technik der Variationsrechnung demonstriert, bei der eine notwendige Aussage für eine lokale Minimumstelle einer reellen Funktion mit nur einer reellen Veränderlichen in eine notwendige Aussage für eine lokale Minimumstelle eines Funktionals übertragen wird. Diese Aussage kann dann oftmals zum Aufstellen beschreibender Gleichungen für stationäre Funktionen eines Funktionals benutzt werden.

Sei ein Funktional [math]I:X\rightarrow\mathbb{R}[/math] auf einem Funktionenraum [math]X[/math] gegeben ([math]X[/math] muss mind. ein topologischer Raum sein). Das Funktional habe an der Stelle [math]x\in X[/math] ein lokales Minimum.

Durch den folgenden einfachen Trick tritt an die Stelle des „schwierig handhabbaren“ Funktionals [math]I[/math] eine reelle Funktion [math] F(\alpha)[/math], die nur von einem reellen Parameter [math]\alpha[/math] abhängt „und entsprechend einfacher zu behandeln ist“.

Mit einem [math]\epsilon\gt0[/math] sei [math](x_\alpha)_{\alpha\in(-\epsilon,\epsilon)}[/math] eine beliebige stetig durch den reellen Parameter [math]\alpha[/math] parametrisierte Familie von Funktionen [math]x_{\alpha}\in X[/math]. Dabei sei die Funktion [math]x_0[/math] (d. h., [math]x_\alpha[/math] für [math]\alpha=0[/math]) gerade gleich der stationären Funktion [math]x[/math]. Außerdem sei die durch die Gleichung

[math]F(\alpha) := I(x_\alpha) \![/math]

definierte Funktion [math]F:(-\epsilon,\epsilon)\rightarrow\mathbb{R}[/math] an der Stelle [math]\alpha=0[/math] differenzierbar.

Die stetige Funktion [math]F[/math] nimmt dann an der Stelle [math]\alpha=0[/math] ein lokales Minimum an, da [math]x_0=x[/math] ein lokales Minimum von [math]I[/math] ist.

Aus der Analysis für reelle Funktionen in einer reellen Veränderlichen ist bekannt, dass dann [math]\left.\frac{\mathrm{d}}{\mathrm{d}\alpha}F(\alpha)\right|_{\alpha=0}=0[/math] gilt. Auf das Funktional übertragen heißt das

[math] \left.\frac{\mathrm{d}}{\mathrm{d}\alpha}I(x_\alpha)\right|_{\alpha=0}=0. [/math]

Beim Aufstellen der gewünschten Gleichungen für stationäre Funktionen wird dann noch ausgenutzt, dass die vorstehende Gleichung für jede beliebige („gutartige“) Familie [math](x_\alpha)_{\alpha\in(-\epsilon,\epsilon)}[/math] mit [math]x_0 = x[/math] gelten muss.

Das soll im nächsten Abschnitt anhand der Euler-Gleichung demonstriert werden.

Euler-Lagrange-Gleichung; Variationsableitung; weitere notwendige bzw. hinreichende Bedingungen

Gegeben seien zwei Zeitpunkte [math]t_a,t_e\in\mathbb{R}[/math] mit [math]t_e\gtt_a[/math] und eine in allen Argumenten zweifach stetig differenzierbare Funktion, die Lagrangefunktion

[math]\mathcal{L}:(t_a,t_e)\times G\rightarrow\mathbb{R}\ ,\quad G \subset \mathbb{R}^n\times\mathbb{R}^n\ ,\quad G\text{ offen}\,.[/math]

Beispielsweise ist bei der Lagrangefunktion des freien relativistischen Teilchens mit Masse [math]m[/math] und [math]c = 1[/math]

[math]\mathcal{L}(t,x,v)= - m \sqrt{1-v^2}[/math]

das Gebiet [math]G[/math] das kartesische Produkt von [math]\mathbb{R}^3[/math] und dem Inneren der Einheitskugel.

Als Funktionenraum [math]X[/math] wird die Menge aller zweifach stetig differenzierbaren Funktionen

[math]x:[t_a,t_e]\rightarrow\mathbb{R}^n[/math]

gewählt, die zum Anfangszeitpunkt [math]t_a[/math] und zum Endzeitpunkt [math]t_e[/math] die fest vorgegebenen Orte [math]x_a[/math] bzw. [math]x_e[/math] einnehmen:

[math]x(t_a)=x_a \ ,\quad x(t_e)=x_e[/math]

und deren Werte zusammen mit den Werten ihrer Ableitung in [math]G[/math] liegen,

[math]\forall t\in [t_a,t_e]:\ \left(x(t), \frac{\mathrm{d}x}{\mathrm{d}t}(t)\right) \in G [/math].

Mit der Lagrangefunktion [math]\mathcal{L}[/math] wird nun das Funktional [math]I:X\rightarrow\mathbb{R}[/math], die Wirkung, durch

[math]I(x) := \int_{t_a}^{t_e} \mathcal{L}(t,x(t),\dot x(t))\,\mathrm{d}t [/math]

definiert. Gesucht ist diejenige Funktion [math]x\in X[/math], die die Wirkung [math]I[/math] minimiert.

Entsprechend der im vorhergehenden Abschnitt vorgestellten Technik untersuchen wir dazu alle differenzierbaren einparametrigen Familien [math](x_\alpha)_{\alpha\in(-\epsilon,\epsilon)}\subset X[/math], die für [math]\alpha=0[/math] durch die stationäre Funktion [math]x[/math] des Funktionals gehen (es gilt also [math]x_0=x[/math]). Genutzt wird die im letzten Abschnitt hergeleitete Gleichung

[math] 0=\left.\frac{d}{d\alpha} I(x_\alpha)\right|_{\alpha=0} =\left[\frac{\mathrm{d}}{\mathrm{d}\alpha} \int_{t_a}^{t_e} \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\,\mathrm{d}t\right]_{\alpha=0} [/math]

Hereinziehen der Differentiation nach dem Parameter [math]\alpha[/math] in das Integral liefert mit der Kettenregel

[math] 0=\left[\int_{t_a}^{t_e}\left(\partial_2 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\partial_\alpha x_\alpha(t) + \partial_3 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\partial_\alpha\dot x_\alpha(t) \right)\,\mathrm{d}t\right]_{\alpha=0} [/math]
[math] \ =\left[\int_{t_a}^{t_e}\partial_2 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\partial_\alpha x_\alpha(t)\,\mathrm{d}t + \int_{t_a}^{t_e}\partial_3 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\partial_\alpha\dot x_\alpha(t) \,\mathrm{d}t\right]_{\alpha=0}. [/math]

Dabei stehen [math]\partial_2,\partial_3[/math] für die Ableitungen nach dem zweiten bzw. dritten Argument und [math]\partial_\alpha[/math] für die partielle Ableitung nach dem Parameter [math]\alpha[/math].

Es wird sich später als günstig erweisen, wenn im zweiten Integral statt [math]\partial_\alpha \dot x_\alpha(t)[/math] wie im ersten Integral [math]\partial_\alpha x_\alpha(t)[/math] steht. Das erreicht man durch partielle Integration:

[math] 0=\left[\int_{t_a}^{t_e}\partial_2 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\,\partial_\alpha x_\alpha(t)\,\mathrm{d}t + \left[\partial_3 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\,\partial_\alpha x_\alpha(t)\right]_{t=t_a}^{t_e}\right . [/math]
[math] - \left .\int_{t_a}^{t_e}\frac{\mathrm{d}}{\mathrm{d}t} \left(\partial_3 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\right)\,\partial_\alpha x_\alpha(t) \,\mathrm{d}t\right]_{\alpha=0} [/math]

An den Stellen [math]t=t_a[/math] und [math]t=t_e[/math] gelten unabhängig von [math]\alpha[/math] die Bedingungen [math]x_\alpha(t_a)=x_a[/math] und [math]x_\alpha(t_e)=x_e[/math]. Ableiten dieser beiden Konstanten nach [math]\alpha[/math] liefert [math]\partial_\alpha x_\alpha(t_a) = \partial_\alpha x_\alpha(t_e) =0[/math]. Deshalb verschwindet der Term [math]\left[\partial_3 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\partial_\alpha x_\alpha(t)\right]_{t=t_a}^{t_e}[/math] und man erhält nach Zusammenfassen der Integrale und Ausklammern von [math]\partial_\alpha x_\alpha[/math] die Gleichung

[math] 0=\left[\int_{t_a}^{t_e}\left(\partial_2 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t)) - \frac{\mathrm{d}}{\mathrm{d}t}\partial_3 \mathcal{L}(t,x_\alpha(t),\dot x_\alpha(t))\right)\,\partial_\alpha x_\alpha(t) \,\mathrm{d}t\right]_{\alpha=0}. [/math]

und mit [math]x_\alpha(t)|_{\alpha=0} = x(t)[/math]

[math] 0=\int_{t_a}^{t_e}\left(\partial_2 \mathcal{L}(t,x(t),\dot x(t)) - \frac{\mathrm{d}}{\mathrm{d}t}\partial_3 \mathcal{L}(t,x(t),\dot x(t))\right)\left[\partial_\alpha x_\alpha(t)\right]_{\alpha=0} \,\mathrm{d}t. [/math]

Außer zum Anfangszeitpunkt und zum Endzeitpunkt unterliegt [math]x_\alpha(t)[/math] keinen Einschränkungen. Damit sind die Zeitfunktionen [math]t\mapsto\left[\partial_\alpha x_\alpha(t)\right]_{\alpha=0}[/math] bis auf die Bedingungen [math]\partial_\alpha x_\alpha(t_a) = \partial_\alpha x_\alpha(t_e) =0[/math] beliebige zweimal stetig differenzierbare Zeitfunktionen. Die letzte Gleichung kann also nur dann für alle zulässigen [math]\left[\partial_\alpha x_\alpha\right]_{\alpha=0}[/math] erfüllt sein, wenn der Faktor [math]\partial_2 \mathcal{L}(t,x(t),\dot x(t)) - \frac{\mathrm{d}}{\mathrm{d}t}\partial_3 \mathcal{L}(t,x(t),\dot x(t))[/math] im gesamten Integrationsintervall gleich null ist (das wird in den Bemerkungen etwas detaillierter erläutert). Damit erhält man für die stationäre Funktion [math]x[/math] die Euler-Lagrange-Gleichung

[math] \partial_2 \mathcal{L}(t,x(t),\dot x(t)) - \frac{\mathrm{d}}{\mathrm{d}t}\partial_3 \mathcal{L}(t,x(t),\dot x(t)) = 0, [/math]

die für alle [math]t\in(t_a,t_e)[/math] erfüllt sein muss.

Die angegebene, zum Verschwinden zu bringende Größe bezeichnet man auch als Eulerableitung der Lagrangefunktion [math]\mathcal{L}\,,[/math]

[math]\frac{\hat{\partial}\mathcal{L}}{\hat{\partial}x}(t) :=\left.\frac{\partial \mathcal{L}(t,x,\dot x)}{\partial x}\right|_{(t,x(t),\dot x(t))} -\frac{\mathrm{d}}{\mathrm{d}t}\,\left(\left.\frac{\partial \mathcal{L}(t,x,\dot x)}{\partial \dot x}\right|_{(t,x(t),\dot x(t))}\right) \,.[/math]

Vor allem in Physikbüchern wird die Ableitung [math]\left.\partial_{\alpha}\right|_{\alpha=0}[/math] als Variation bezeichnet. Dann ist [math]\delta x = \left.\partial_\alpha x_\alpha\right|_{\alpha=0}[/math] die Variation von [math]x\,.[/math] Die Variation der Wirkung

[math]\delta I(x,\delta x) = \int\mathrm d t\,\frac{\delta I}{\delta x(t)}\delta x(t)[/math]

ist wie bei [math]\mathrm d f= \sum_i (\partial_i f)\mathrm d x^i [/math] eine Linearform in den Variationen der Argumente, ihre Koeffizienten [math]\frac{\delta I}{\delta x(t)}[/math] heißen Variationsableitung des Funktionals [math]I\,.[/math] Sie ist im betrachteten Fall die Eulerableitung der Lagrangefunktion

[math]\frac{\delta I}{\delta x(t)}= \frac{\hat{\partial}\mathcal{L}}{\hat{\partial}x}(t)\,. [/math]

Bemerkungen

Bei der Herleitung der Euler-Lagrange-Gleichung wurde berücksichtigt, dass eine stetige Funktion [math]a[/math], die für alle mindestens zweimal stetig differenzierbaren Funktionen [math]b[/math] mit [math]b(t_a)=b(t_e)=0[/math] bei Integration über

[math] \int_{t_a}^{t_e} a(t)b(t)\,\mathrm{d}t [/math]

den Wert null ergibt, identisch gleich null sein muss.

Das ist leicht einzusehen, wenn man berücksichtigt, dass es zum Beispiel mit

[math]b(t):= \begin{cases} 0 &\text{für}\quad t \leq t_{0}-\epsilon \quad\text{ oder }\quad t \geq t_{0}+\epsilon\\ (t-t_{0}+\epsilon)^3(t_{0}-t+\epsilon)^3 &\text{für}\quad t\in(t_{0}-\epsilon,t_{0}+\epsilon) \end{cases} [/math]

eine zweimal stetig differenzierbare Funktion gibt, die in einer [math]\epsilon[/math]-Umgebung eines willkürlich herausgegriffenen Zeitpunktes [math]t_0\in(t_a,t_e)[/math] positiv und ansonsten null ist. Gäbe es eine Stelle [math]t_{0}[/math], an der die Funktion [math]a[/math] größer oder kleiner null wäre, so wäre sie aufgrund der Stetigkeit auch noch in einer ganzen Umgebung [math](t_{0}-\epsilon,t_{0}+\epsilon)[/math] dieser Stelle größer bzw. kleiner null. Mit der eben definierten Funktion [math]b[/math] ist dann jedoch das Integral [math]\int_{t_a}^{t_b} a(t)b(t)\,\mathrm{d}t[/math] im Widerspruch zur Voraussetzung an [math]a[/math] ebenfalls größer bzw. kleiner null. Die Annahme, dass [math]a[/math] an einer Stelle [math]t_{0}[/math] ungleich null wäre, ist also falsch. Die Funktion [math]a[/math] ist also wirklich identisch gleich null.

Ist der Funktionenraum [math]X[/math] ein affiner Raum, so wird die Familie [math](x_\alpha)_{\alpha\in(-\epsilon,\epsilon)}[/math] in der Literatur oftmals als Summe [math]x_\alpha(t) := x(t)+\alpha h(t)[/math] mit einer frei wählbaren Zeitfunktion [math]h[/math] festgelegt, die der Bedingung [math]h(t_a)=h(t_e)=0[/math] genügen muss. Die Ableitung [math]\left.\partial_\alpha I(x_{\alpha})\right|_{\alpha=0}[/math] ist dann gerade die Gateaux-Ableitung [math]\left.\partial_\alpha I(x+\alpha h)\right|_{\alpha=0}[/math] des Funktionals [math]I[/math] an der Stelle [math]x[/math] in Richtung [math]h[/math]. Die hier vorgestellte Version erscheint dem Autor etwas günstiger, wenn die Funktionenmenge [math]X[/math] kein affiner Raum mehr ist (wenn sie beispielsweise durch eine nichtlineare Nebenbedingung eingeschränkt ist; siehe etwa gaußsches Prinzip des kleinsten Zwanges). Sie ist ausführlicher in [2] dargestellt und lehnt sich an die Definition von Tangentialvektoren an Mannigfaltigkeiten an (siehe auch [3]).

Siehe auch

Einzelnachweise

  1. Brachistochrone problem
  2. W. I. Smirnow: Lehrgang der höheren Mathematik, Teil (IV/1). 17. Auflage. VEB Deutscher Verlag der Wissenschaften, Berlin 1990.
  3. H. Fischer, H. Kaul: Mathematik für Physiker, Band 3. 2. Auflage. Teubner Verlag, Wiesbaden 2006, ISBN 3-8351-0031-9.

Literatur


Kategorien: Teilgebiet der Mathematik | Physik

Quelle: Wikipedia - http://de.wikipedia.org/wiki/Variationsrechnung (Vollständige Liste der Autoren des Textes [Versionsgeschichte])    Lizenz: CC-by-sa-3.0

Änderungen: Alle Bilder mit den meisten Bildunterschriften wurden entfernt. Ebenso alle zu nicht-existierenden Artikeln/Kategorien gehenden internen Wikipedia-Links (Bsp. Portal-Links, Redlinks, Bearbeiten-Links). Entfernung von Navigationsframes, Geo & Normdaten, Mediadateien, gesprochene Versionen, z.T. ID&Class-Namen, Style von Div-Containern, Metadaten, Vorlagen, wie lesenwerte Artikel. Ansonsten sind keine Inhaltsänderungen vorgenommen worden. Weiterhin kann es durch die maschinelle Bearbeitung des Inhalts zu Fehlern gerade in der Darstellung kommen. Darum würden wir jeden Besucher unserer Seite darum bitten uns diese Fehler über den Support mittels einer Nachricht mit Link zu melden. Vielen Dank!

Stand der Informationen: August 201& - Wichtiger Hinweis: Da die Inhalte maschinell von Wikipedia übernommen wurden, ist eine manuelle Überprüfung nicht möglich. Somit garantiert LinkFang.de nicht die Richtigkeit und Aktualität der übernommenen Inhalte. Sollten die Informationen mittlerweile fehlerhaft sein, bitten wir Sie darum uns per Support oder E-Mail zu kontaktieren. Wir werden uns dann innerhalb von spätestens 10 Tagen um Ihr Anliegen kümmern. Auch ohne Anliegen erfolgt mindestens alle drei Monate ein Update der gesamten Inhalte.