Brachistochrone und Euler‑Lagrange‑Gleichung mit Variationsrechnung

Brachistochrone und Euler‑Lagrange‑Gleichung mit Variationsrechnung

Die Variationsrechnung in der klassischen Mechanik und die Euler‑Lagrange‑Gleichung

Zusammenfassung:
In diesem Kurs werden wir die Herleitung der Euler‑Lagrange‑Gleichung der analytischen Mechanik durch die Verwendung der Techniken der Variationsrechnung überprüfen und daraufhin deren Anwendung bei der Lösung des Brachistochronenproblems im Detail zeigen.


Lernziele:
Nach Abschluss dieses Kurses wird der Studierende in der Lage sein:

  1. Das Hamiltonsche Prinzip der minimalen Wirkung zu verstehen
  2. Die Euler‑Lagrange‑Gleichung herzuleiten
  3. Das Brachistochronenproblem mithilfe der Euler‑Lagrange‑Gleichung zu lösen.

INHALTSVERZEICHNIS:
WARUM VARIATIONSRECHNUNG IN DER KLASSISCHEN MECHANIK
FORMULIERUNG DES VARIATIONS‑PROBLEMS
DIE EULER‑LAGRANGE‑GLEICHUNG
DAS BRACHISTOCHRONE‑PROBLEM
GITHUB‑REPOSITORY MIT WOLFRAM‑ALGORITHMUS



Warum Variationsrechnung in der klassischen Mechanik

Die newtonsche Physik weist zahlreiche Probleme auf, die effektiver mittels Variationsrechnung angegangen werden können. Dieser Ansatz ist grundlegend in den Lagrange‑Gleichungen und im Prinzip der minimalen Wirkung von Hamilton. Im Wesentlichen besteht diese Methode darin, die Bahnen zu finden, die eine bestimmte Größe maximieren oder minimieren. Beispielsweise kann man die Bahn zwischen zwei Punkten suchen, die die zurückgelegte Strecke oder die Reisezeit minimiert. Ein Beispiel für diesen Ansatz ist das Fermatsche Prinzip, das besagt, dass das Licht stets den Weg folgt, der die Reisezeit minimiert, was wiederum zum Snellischen Gesetz der Lichtbrechung führt.

Die Variationsrechnung besitzt viele Vorteile in der klassischen Mechanik. Sie ermöglicht beispielsweise genaue analytische Lösungen für symmetrische Systeme und approximative Lösungen mittels der variationalen Störungstheorie für komplexere Systeme. Außerdem liefert das Prinzip der minimalen Wirkung in Situationen, in denen es schwierig ist, die Kräfte in Form von Differentialgleichungen auszudrücken, eine effizientere Methode zur Lösung von Problemen der klassischen Mechanik. Zusammenfassend ist die Variationsrechnung ein grundlegendes Werkzeug, das eine alternative Formulierung der Newtonschen Gesetze, eine Vereinheitlichung der physikalischen Gesetze, eine größere Effizienz bei der Problemlösung und eine höhere Genauigkeit bei der Vorhersage experimenteller Ergebnisse bietet.

Formulierung des variationalen Problems

Die Variationsrechnung konzentriert sich darauf, die Funktion y(x) zu finden, die den Wert des Funktionals extremiert:

J(x,y(x))=\displaystyle \int_{x_1}^{x_2} f\left(x,y(x),\frac{dy(x)}{dx}\right)dx,

um ihren maximalen oder minimalen Wert zu finden. In dieser Gleichung hängt das Funktional J von der Funktion y(x) und ihrer Ableitung dy(x)/dx, ab, während die Integrationsgrenzen fest bleiben. Um das Integral zu extremieren, werden Variationen auf die Funktion y(x) angewendet, wobei die Funktion gesucht wird, die den Wert des Funktionals extremal macht. Wenn beispielsweise erreicht wird, dass das Integral seinen minimalen Wert annimmt, erhöht jede Funktion innerhalb ihrer Umgebung, unabhängig davon, wie nahe sie an y(x) liegt, den Wert des Funktionals.

Um den Begriff einer Nachbarfunktion zu definieren, können wir allen möglichen Funktionen y eine parametrische Darstellung y=(\alpha,x) zuordnen, so dass für \alpha=0 dann y(0,x)=y(x) die Funktion ist, die J extremiert. Dies lässt sich wie folgt ausdrücken:

y(\alpha, x) = y(x) + \alpha \eta(x),

wobei \eta(x) eine Funktion der Klasse \mathcal{C}^1 ist, die sich bei x_1 und x_2 annulliert, so dass die Funktion y(\alpha,x), die diese Variation einschließt, identisch mit y(x) an den Anfangs‑ und Endpunkten der Integrationsstrecke ist.

Wenn man die Funktion y(\alpha,x), die die Variation \eta(x) beinhaltet, anstelle von y(x) in das Integral einsetzt, das das Funktional J definiert, erhält man ein neues Funktional, das vom Parameter \alpha abhängt:

J(x,y(\alpha, x)) = \displaystyle \int_{x_1}^{x_2} f\left(x,y(\alpha,x), \dfrac{d}{dx}y(\alpha,x)\right)dx

Damit lokale Extreme existieren, muss die Bedingung erfüllt sein:

\left.\dfrac{\partial J(x,y(\alpha,x))}{\partial \alpha}\right|_{\alpha=0} = 0

für jede Funktion \eta(x).

Die Euler‑Lagrange‑Gleichung

Wenn man die Ableitung \partial J(x,y(\alpha,x))/\partial \alpha analysiert, erhält man:

\begin{array}{rll} {}\dfrac{\partial J(x,y(\alpha,x))}{\partial \alpha} &=&\dfrac{\partial}{\partial \alpha} \displaystyle \int_{x_1}^{x_2} f\left(x,y(\alpha,x),\dfrac{dy(\alpha, x)}{dx}\right)dx \\ \\ &=&\displaystyle \int_{x_1}^{x_2} \left(\dfrac{\partial f}{\partial x}\dfrac{\partial x}{\partial \alpha} + \dfrac{\partial f}{\partial y(\alpha, x)}\dfrac{\partial y(\alpha, x)}{\partial \alpha} + \dfrac{\partial f }{ \partial \frac{dy(\alpha,x)}{dx}} \dfrac{\partial \frac{dy(\alpha,x)}{dx}}{\partial \alpha}\right)dx \end{array}

Ab diesem Punkt ist es wichtig zu beachten, dass:

\begin{array}{rll} \dfrac{\partial x}{\partial \alpha} &=& 0 \\ \\ \dfrac{\partial y(\alpha,x)}{\partial \alpha} &=& \dfrac{\partial}{\partial \alpha} \left(y(x) + \alpha \eta(x) \right) = \eta(x) \\ \\ \dfrac{\partial}{\partial \alpha}\left( \dfrac{dy(\alpha, x)}{dx} \right)&=& \dfrac{\partial}{\partial \alpha} \left(\dfrac{dy(x)}{dx} + \alpha\dfrac{d\eta(x)}{dx} \right) = \dfrac{d\eta}{dx} \end{array}

Daher reduziert sich der Ausdruck wie folgt:

\begin{array}{rll} {} \dfrac{\partial J(x,y(\alpha,x))}{\partial \alpha} &=& \displaystyle \int_{x_1}^{x_2} \left(\dfrac{\partial f}{\partial y(\alpha,x)}\eta(x) + \dfrac{\partial f}{\partial \frac{dy(\alpha,x)}{dx}} \dfrac{d\eta(x)}{dx} \right)dx \\ \\ &=&\displaystyle \int_{x_1}^{x_2} \dfrac{\partial f}{\partial y(\alpha,x)}\eta(x) dx + \int_{x_1}^{x_2} \dfrac{\partial f}{\partial \frac{dy(\alpha,x)}{dx}} \dfrac{d\eta(x)}{dx} dx \end{array}

Wenn wir dann das zweite Integral betrachten, sehen wir, dass es sich durch partielle Integration vereinfachen lässt:

\begin{array}{rll} \displaystyle \int_{x_1}^{x_2} \dfrac{\partial f}{\partial \frac{dy(\alpha,x)}{dx}} \dfrac{d\eta}{dx} dx &=& \left. \dfrac{\partial f}{\partial \frac{dy(\alpha,x)}{dx}} \eta(x)\right|_{x_1}^{x_2} - \displaystyle \int_{x_1}^{x_2}\eta(x) \dfrac{d}{dx}\left( \dfrac{\partial f}{\partial \frac{dy(\alpha, x)}{dx}} \right) dx\\ \\ &=& - \displaystyle \int_{x_1}^{x_2}\eta(x) \dfrac{d}{dx}\left( \dfrac{\partial f}{\partial \frac{dy(\alpha, x)}{dx}} \right)dx \end{array}

Und daher

\begin{array}{rll} {} \dfrac{\partial J(x,y(\alpha,x))}{\partial \alpha} &=& \displaystyle \int_{x_1}^{x_2} \left[ \eta(x) \dfrac{\partial f}{\partial y(\alpha, x)} - \eta(x) \dfrac{d}{dx}\left( \dfrac{\partial f}{\partial \frac{dy(\alpha,x)}{dx}} \right) \right]dx \\ \\ &=& \displaystyle \int_{x_1}^{x_2} \left[ \dfrac{\partial f}{\partial y(\alpha, x)} - \dfrac{d}{dx}\left( \dfrac{\partial f}{\partial \frac{dy(\alpha,x)}{dx}} \right) \right] \eta(x) dx \end{array}

So ergibt sich unter der Bedingung, dass \left.\dfrac{\partial J (x,y(\alpha, x))}{\partial \alpha}\right|_{\alpha=0} = 0, und da \eta(x) eine beliebige Funktion ist, die nur die Bedingung erfüllt, sich bei x_1 und x_2 zu nullen:

\dfrac{\partial f}{\partial y(0, x)} - \dfrac{d}{dx}\left( \dfrac{\partial f}{\partial \frac{dy(0,x)}{dx}}\right) = \dfrac{\partial f}{\partial y(x)} - \dfrac{d}{dx}\left( \dfrac{\partial f}{\partial \frac{dy(x)}{dx}}\right) = 0.

Schließlich gelangt man, indem man in diesem letzten Ausdruck die Notation entlädt, zu der so genannten Euler‑Lagrange‑Gleichung:

\boxed{\dfrac{\partial f}{\partial y}= \dfrac{d}{dx}\left( \dfrac{\partial f}{\partial y^\prime} \right)},

und dies stellt in viel einfacherer Form die notwendige Bedingung dar, damit das Funktional J einen Extremwert erreicht.

Das Brachistochronenproblem

Formulierung des Problems

Das Brachistochronenproblem ist ein Klassiker der mechanischen Physik, der mittels Variationsrechnung gelöst wird. Die Situation ist wie folgt: Angenommen, wir haben einen materiellen Körper, der sich unter dem Einfluss eines konstanten Kraftfeldes bewegt und sich von einem Anfangspunkt (x_1,y_1) zu einem Endpunkt (x_2,y_2) verschiebt, wobei der Ausgangspunkt auf einer größeren Höhe liegt als der Endpunkt. Die Frage lautet: Welche Trajektorie muss das Teilchen verfolgen, um den Endpunkt in der kürzest möglichen Zeit zu erreichen?

Formulierung der Lösung

Um das Brachistochronenproblem zu lösen, ist es hilfreich, die Situation vereinfacht zu betrachten. Man kann daher den Ausgangspunkt (x_1, y_1) im Ursprung des Koordinatensystems festlegen, während der Endpunkt (x_2,y_2) sich rechts vom Ursprung und unterhalb der \hat{x}‑Achse befindet.

cálculo variacional - problema de la braquistócrona

In dieser Situation kann man ein Kraftfeld betrachten, das nach unten wirkt (in der Richtung -\hat{y}) und durch die Gravitation erzeugt wird, und annehmen, dass die Bewegung ohne Reibung stattfindet. In diesem Kontext wird das Teilchen darauf beschränkt, verschiedene Bahnen zu verfolgen, die die Start‑ und Endpunkte verbinden, mit dem Ziel, herauszufinden, welche von ihnen die Reisezeit minimiert.

Untersuchung der Energie

Um dieses Problem zu lösen, können wir die Energieerhaltung des gravitativen Systems nutzen. Die Gesamtenergie des Systems bleibt konstant, wobei sowohl die kinetische Energie E_{kin}=\frac{1}{2}mv^2 als auch die gravitative potentielle Energie E_{pot,g} berücksichtigt werden, wobei m die Masse des Teilchens und v seine Geschwindigkeit ist. Für die potentielle Energie wurde der Ursprung als Bezugspunkt gewählt, so dass E_{pot,g}(y=0)=0, während in jeder anderen Höhe y gilt E_{pot,g}(y)=mgy.

Da das Teilchen vom Ursprung mit Geschwindigkeit null startet, ist seine Gesamtenergie gleich null. Dann gilt:

E_{kin} + E_{pot,g}=0

Da das Teilchen unter den Referenzpunkt fällt, ist seine potentielle Energie negativ und seine kinetische Energie positiv. Auf diese Weise können wir die Geschwindigkeit v aus der Energieerhaltungsgleichung herauslösen und erhalten:

\begin{array}{rl} {} &\dfrac{1}{2}mv^2 + (-mgy) = 0 \\ \\ \vdash &\dfrac{1}{2}mv^2 = mgy \\ \\ \vdash &v^2 = 2gy \\ \\ \vdash &v = \sqrt{2gy} \end{array}

Somit können wir die Geschwindigkeit des Teilchens in jedem Punkt seiner Trajektorie in Abhängigkeit von der Höhe y berechnen.

Untersuchung der Laufzeit

Nachdem wir die Geschwindigkeit des Bewegungsablaufs bestimmt haben, können wir das Zeitelement des Weges mithilfe des Weg‑Elements ds=\sqrt{dx^2 + dy^2} wie folgt aufbauen:

\begin{array}{rl} {} dt &= \dfrac{ds}{v} = \dfrac{\sqrt{dx^2 + dy^2}}{\sqrt{2gy}}\\ \\ &= \sqrt{\dfrac{dx^2 + dy^2}{2gy} } \end{array}

Somit kann die Reisezeit zwischen den Punkten (x_1,y_1) und (x_2,y_2) durch Integration bestimmt werden

\begin{array}{rl} {} t &= \displaystyle \int_{(x_1,y_1)}^{(x_2,y_2)} dt \\ \\ &= \displaystyle \int_{(x_1,y_1)}^{(x_2,y_2)} \sqrt{\dfrac{dx^2 + dy^2}{2gy}} \\ \\ &= \displaystyle \dfrac{1}{\sqrt{2g}}\int_{y_1}^{y_2} \sqrt{\dfrac{1+ \left(\dfrac{dx}{dy}\right)^2 }{y}}\,dy \\ \\ \end{array}

Formulierung des variationalen Problems

Mit diesem letzten Ausdruck haben wir erreicht, die Zeit als ein Funktional der Form

{}t = J(y,x(y)) = \displaystyle \int_{y_1}^{y_2} f\left(y,x(y),\dfrac{dx(y)}{dy} \right) dy

darzustellen, wobei

f\left(y,x(y), \dfrac{dx(y)}{dy}\right) = \sqrt{\dfrac{1+ \left(\dfrac{dx(y)}{dy} \right)^2}{y}}

An dieser Stelle können wir den Faktor \sqrt{2g}, außer Acht lassen, denn die Optimierung von J ist genau dasselbe wie die Optimierung von \sqrt{2g}J.

Damit können wir nun die Euler‑Lagrange‑Gleichung nach demselben Verfahren wie zuvor aufstellen und gelangen schließlich zu:

\dfrac{\partial f}{\partial x} = \dfrac{d}{dy} \dfrac{\partial f}{\partial x^\prime}

Hier erkennen wir jedoch, dass \dfrac{\partial f}{\partial x} = 0, so dass

\dfrac{d}{dy}\dfrac{\partial f}{\partial x^\prime} = 0,

oder mit anderen Worten

\dfrac{\partial f}{\partial x^\prime} = \dfrac{1}{\sqrt{2a}},

wobei a eine willkürliche Konstante ist, die auf diese Weise geschrieben wird, weil es für spätere Entwicklungen „zweckmäßig“ ist.

Lösung des Variationsproblems

Beim Einsetzen der Funktion f in diesen letzten Ausdruck ergibt sich:

\begin{array}{rl} {} &\dfrac{\partial }{\partial x^\prime} \sqrt{\dfrac{1+ x^{\prime 2}}{y}} = \dfrac{1}{\sqrt{2a}} \\ \\ \vdash & \dfrac{1}{2}\left( \dfrac{1 + x^{\prime 2} }{y} \right)^{-1/2} \left(\dfrac{2x^\prime}{y} \right) = \dfrac{1}{\sqrt{2a}} \\ \\ \vdash & \dfrac{1}{2}\sqrt{\dfrac{y}{1 + x^{\prime 2}}} \left(\dfrac{2x^\prime}{y} \right) = \dfrac{1}{\sqrt{2a}} \\ \\ \vdash & \sqrt{\dfrac{4x^{\prime 2} y}{4y^2 (1 + x^{\prime 2})} } = \sqrt{\dfrac{1}{2a}} \\ \\ \vdash & \dfrac{y x^{\prime 2} }{y^2 (1 + x^{\prime 2})} = \dfrac{1}{ 2a} \\ \\ \vdash & 2ayx^{\prime 2} = y^2 + y^2 x^{\prime 2} \\ \\ \vdash & x^{\prime 2} (2ay - y^2) = y^2 \\ \\ \vdash & \left(\dfrac{dx}{dy}\right)^2 = \dfrac{y^2}{2ay - y^2} \\ \\ \vdash & \dfrac{dx}{dy} = \pm \sqrt{\dfrac{y^2}{2ay - y^2}} \\ \\ \vdash & dx = \pm \dfrac{y\,dy}{\sqrt{2ay - y^2}} \\ \\ \vdash & x = \displaystyle \pm \int \dfrac{y}{\sqrt{2ay - y^2}}\,dy \end{array}

Um dieses Integral zu lösen, kann man die folgende Substitution in Betracht ziehen

\begin{array}{rl} {} y &= a[1-\cos(\theta)] \\ dy &= a\sin(\theta) d\theta \end{array}

Damit erhält man:

\begin{array}{rl} {} x= & \pm \displaystyle \int \dfrac{y}{\sqrt{2ay - y^2}}\,dy = \displaystyle \int \dfrac{a[1-\cos(\theta)]a\sin(\theta)}{\sqrt{2a^2[1-\cos(\theta)] - a^2[1-\cos(\theta)]^2 }}\,d\theta \\ \\ & = \pm \displaystyle \int \dfrac{a^2[1-\cos(\theta)]\sin(\theta)}{\sqrt{a^2[1-\cos(\theta)]\left\{ 2 - [1-\cos(\theta)] \right\} }}\,d\theta \\ \\ & = \pm \displaystyle \int \dfrac{a[1-\cos(\theta)]\sin(\theta)}{\sqrt{[1-\cos(\theta)] [1 + \cos(\theta)] }}\,d\theta \\ \\ & = \pm \displaystyle \int \dfrac{a[1-\cos(\theta)]\sin(\theta)}{\sqrt{ 1-\cos^2(\theta)}}\,d\theta \\ \\ & = \pm \displaystyle \int \dfrac{a[1-\cos(\theta)]\sin(\theta)}{\sin(\theta)}\,d\theta \\ \\ & = \pm \displaystyle \int a[1-\cos(\theta)]\,d\theta \\ \\ & = \pm a(\theta - \sin(\theta)) + C \end{array}

Wir können feststellen, dass die Brachistochrone‑Kurve als parametrisierte Kurve in Polarkoordinaten ausgedrückt werden kann, die mit einer Zykloide übereinstimmt, deren Ausgangspunkt im Ursprung liegt.

\begin{array}{rl} {} x(\theta) &= \pm a(\theta - \sin(\theta)) \\ y(\theta) &= a(1-\cos(\theta)) \end{array}

Die Integrationskonstante C wurde weggelassen, um die Anfangsbedingung zu erfüllen, dass die Bahn im Ursprung beginnt. Außerdem können wir feststellen, dass es ein Paar Gleichungen gibt, die mögliche Lösungen des Problems liefern, wobei die Konstante a so angepasst werden kann, dass die Kurve am Ende des Weges durch den Punkt (x_2,y_2) verläuft. Diese Gleichungen sind:

Option 1: \boxed{\begin{array}{rl} {} x(\theta) &= a(\theta - \sin(\theta)) \\ y(\theta) &= a(1-\cos(\theta)) \end{array}}

Option 2: \boxed{\begin{array}{rl} {} x(\theta) &= - a(\theta - \sin(\theta)) \\ y(\theta) &= a(1-\cos(\theta)) \end{array}}

Die praktikable Lösung für dieses Problem wird durch die zweite Option gegeben, und indem man die Konstante a als einen negativen Wert anpasst, erhält man eine Kurve, die die notwendigen Bedingungen für eine Lösung erfüllt.

Ejemplo de solución posible, un arco de cicloide

Letzte Anpassung der Lösung

Nach den letzten vorgenommenen Anpassungen hat die Brachistochrone‑Kurve die folgende parametrische Form:

\begin{array}{rl} x(\theta) &= b(\theta - \sin(\theta)) \\ y(\theta) &= -b(1-\cos(\theta)) \end{array}

Es wurde a=-b gesetzt, wobei 0< b. Die Kurve hat eine Periode 2b\pi und muss die Bedingung x_2 \in ]0,2b\pi[ und y_2 \in ]-2b,0[ erfüllen. Dies ist entscheidend, da es verlangt, dass die Brachistochrone als einzelner Zykloidenbogen dargestellt wird, da die Lösung ungültig wird, wenn das Teilchen beim Zurückkehren zu einem Punkt mit Höhe Null zur Ruhe kommt.

Um diese Gleichungen an das Problem anzupassen, müssen wir die Werte von \theta und b finden, die das System erfüllen:

\begin{array}{rl} {} x_2 &= b(\theta - \sin(\theta))\\ y_2 &= - b(1-\cos(\theta)) \end{array}

Dieses nichtlineare System scheint keine analytischen Lösungen zu haben, daher werden wir numerische Methoden in Wolfram Mathematica verwenden. Nachfolgend wird eine Reihe von Schritten zur Lösung des Problems vorgestellt:

Schritt 1: System aufstellen

Die Gleichungen aufstellen, die das zu lösende System bilden

eq1 = x2 == b*(theta - Sin[theta])
eq2 = y2 == -b*(1 - Cos[theta])

Schritt 2: Den Endpunkt definieren

Den Punkt festlegen, den das Teilchen am Ende seiner Bahn erreichen soll. In diesem Fall legen wir ihn bei (x_2,y_2)=(1,-2) fest. Diese Werte können Sie ändern, um andere ähnliche Konfigurationen auszuprobieren.

x2val = 1; y2val = -2;

Schritt 3: Die gesuchten Werte numerisch berechnen

Die Funktion „FindRoot“ verwenden, um die Lösung des Problems numerisch zu berechnen

sol = FindRoot[{eq1, eq2} /. {x2 -> x2val, y2 -> y2val}, {{b,1}, {theta, 1}}]

Hier wurden die Werte b=1 und \theta=1 als Ausgangspunkte für die numerische Annäherung der Lösung verwendet. Damit erhält man als Lösung b\approx 2.4056 und \theta \approx 1.40138

Schritt 4: Überprüfung der Ergebnisse

Erinnern wir uns daran, dass diese Antworten physikalisch sinnvoll sein müssen, wofür x_2 \in ]0,2b\pi[[ und y_2 \in ]-2b, 0[[ gelten muss. Wir können schnell bestätigen, dass dies der Fall ist, indem wir den folgenden Ablauf verwenden

Zuerst entnehmen wir die Werte von b und \theta, die als Lösung erhalten wurden

bval = sol[[1, 2]]; thetaval = sol[[2, 2]];

Und dann lassen wir die Bestätigung durchführen

If[0 < x2val < 2*Pi*bval && -2*bval < y2val < 0, "Valores válidos", "Valores inválidos"]

Wenn alles gut gelaufen ist, sollten wir als Ausgabe "Valores válidos" (gültige Werte) erhalten. Dieses Stück Code hilft dir, zu überprüfen, ob die physikalische Situation korrekt modelliert wurde.

Mit diesen Verfahren ist unsere Lösungskurve endlich vollständig angepasst, die die Punkte (x_1,y_1)=(0,0) und (x_2,y_2)=(1,-2) verbindet. Die resultierende Kurve ist:

\begin{array}{rl} {} x(\theta) &\approx 2.4056(\theta - \sin(\theta)) \\ y(\theta) &\approx -2.4056(1-\cos(\theta)) \end{array}\;\;;\theta\in [0, 1.40138]

Die grafische Darstellung sieht so aus:

Github‑Repository mit Wolfram‑Algorithmus

Der vollständige Code zur Lösung des Brachistochronenproblems, einschließlich des in Wolfram Mathematica entwickelten Algorithmus, steht in meinem GitHub‑Repository zum Herunterladen und zur Einsicht bereit. Dieses Repository enthält eine Datei .nb mit dem Code im Format eines interaktiven Notebooks sowie eine Version im Klartext .m für diejenigen, die den Code lieber direkt sehen möchten.

Du kannst das Repository von GitHub hier herunterladen.

Neben dem Code enthält das Repository eine Datei "README" mit ausführlichen Anweisungen zur Verwendung und zum Verständnis des Algorithmus sowie eine Schritt‑für‑Schritt‑Erklärung der Lösung des Brachistochronenproblems. Ich hoffe, du findest es nützlich!

Views: 2

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert