Verlieren wir irgendwelche Lösungen, wenn wir die Trennung von Variablen auf partielle Differentialgleichungen anwenden?
Betrachten Sie beispielsweise das folgende Problem $$\frac{\partial u}{\partial t} = k\frac{\partial^2 u}{\partial x^2},\hspace{0.5cm} u(x,0)=f(x),\hspace{0.5cm} u(0,t)=0,\hspace{0.5cm} u(L,t)=0$$Lehrbücher (z. B. Pauls Online-Notizen ) wenden normalerweise die Trennung von Variablen an, vorausgesetzt, dass$u(x,t)=\varphi(x)G(t)$ ohne jede Erklärung, warum diese Annahme gemacht werden kann.
Verlieren wir auf diese Weise irgendwelche Lösungen, da es Funktionen von zwei Variablen gibt? $x$ und $t$ das sind keine Produkte von Funktionen einzelner Variablen?
Die Trennung von Variablen ergibt die folgende Lösung, wenn wir nur Randbedingungen betrachten: $$u_n(x,t) = \sin\left(\frac{n\pi x}{L}\right)e^{-k\left(\frac{n\pi}{L}\right)^2t},\hspace{0.5cm}n=1,2,3,\dotsc.$$
Die Gleichung ist linear, also können wir eine Überlagerung von nehmen $u_n$:: $$u(x,t) = \sum\limits_{n=1}^{\infty}B_n\sin\left(\frac{n\pi x}{L}\right)e^{-k\left(\frac{n\pi}{L}\right)^2t}$$ wo $B_n$ werden aus dem Ausgangszustand gefunden: $$B_n = \frac{2}{L}\int\limits_0^Lf(x)\sin\left(\frac{n\pi x}{L}\right)dx,\hspace{0.5cm}n=1,2,3,\dotsc.$$
Gibt es Lösungen? $u(x,t)$das kann nicht so dargestellt werden (nicht für diesen speziellen pde sondern allgemein)? Was passiert bei nichtlinearen Gleichungen? Können wir dort die Trennung von Variablen anwenden?
Antworten
Betrachten Sie Ihre angebliche Lösung $u(x,t)$ bei fest $t$Denken Sie also nur an eine Funktion von $x$. Eine solche Funktion kann zu einem vollständigen Funktionsumfang erweitert werden$f_n (x)$, $$ u(x,t)=\sum_{n} u_n f_n (x) $$ Was passiert, wenn Sie jetzt einen anderen festen wählen $t$? Solange die Randbedingungen in der$x$ Richtung nicht ändern (was in Ihrem Beispiel der Fall ist), Sie können immer noch in der gleichen Menge erweitern $f_n (x)$, also der einzige Ort, an dem die $t$-abhängigkeit tritt in den Koeffizienten ein $u_n $ - Sie ändern sich, wenn Sie eine andere Funktion von erweitern $x$ im gleichen Satz von $f_n (x)$. Also die komplette funktionale Abhängigkeit von$u(x,t)$ kann geschrieben werden als $$ u(x,t)=\sum_{n} u_n (t) f_n (x) $$Wenn wir also einen Trennungsansatz erstellen, gehen wir nicht davon aus, dass unsere Lösungen Produkte sind. Wir behaupten lediglich, dass wir eine Basis der Produktform aufbauen können, in der unsere Lösungen erweitert werden können. Dies ist keine Einschränkung für eine große Klasse von Problemen. Wie aus dem vorhergehenden Argument hervorgeht, geht dies schief, wenn die Randbedingungen in der$x$ Richtung hängen davon ab $t$ - dann können wir nicht in derselben Menge erweitern $f_n (x)$ für jede $t$. Zum Beispiel, wenn die Domäne dreieckig wäre, so dass die Länge der$x$-Intervall hängt ab von $t$würden die Frequenzen in den Sinusfunktionen in Ihrem Beispiel werden $t$-abhängig.
Wie Sie richtig bemerkt haben, schreiben wir unsere Lösung am Ende als Überlagerung trennbarer Lösungen. Die richtige Frage lautet also wirklich: Können wir jede Lösung für unsere PDE als Summe trennbarer Lösungen ausdrücken?
Eine gründliche Antwort auf diese Frage erfordert eine kleine lineare Algebra. Wir wollen eine Reihe von Funktionen finden$\{\varphi_n(x): n \in \mathbb{N}\}$ so dass für jedes Mal $t$ Schreiben Sie unsere Lösung $f$ wie $f = \sum_{n=0}^{\infty} \varphi_n(x) G_n(t)$ bei dem die $G_n$sind nur einige Koeffizienten, die zeitabhängig sein dürfen. Es gibt nicht nur einen solchen Satz von Funktionen, wir können tatsächlich einen Satz dieser Funktionen durch den Prozess der Trennung von Variablen finden.
Betrachten wir noch einmal die Wärmegleichung. Wenn wir Variablen trennen, reduzieren wir die Situation auf zwei ODEs:
$$G'(t) = EG(t), \varphi''(x) = \frac{E}{k}\varphi(x) $$ wo $E$ ist eine unbekannte Konstante.
Denken Sie daran, dass die Differenzierung linear ist, dh für Funktionen $f$ und $g$ und Konstanten $a,b$ wir haben $\frac{d}{dx}(af(x)+bg(x)) = a\frac{df}{dx} + b \frac{dg}{dx}$. Dies bedeutet, dass unsere beiden ODEs Eigenwertprobleme sind: Wir haben ein Eigenwertproblem für den Operator$\frac{d}{dx}$ mit Eigenwert $E$und ein Eigenwertproblem für den Operator $\frac{d^2}{dx^2}$ mit Eigenwert $\frac{E}{k}$.
Wir brauchen die Eigenvektoren von $\frac{d^2}{dx^2}$ (dh die Lösungen für unsere $\varphi$ODE), um eine Basis für unseren Funktionsraum zu bilden. Glücklicherweise gibt es einen Satz, der genau so etwas für uns tut.
Spektralsatz :
Lassen $V$ sei ein Hilbert-Raum und $T: V \to V$eine (ausreichend schöne) selbstadjunkte Karte. Dann gibt es eine orthonormale Basis für$V$ welches aus Eigenvektoren für besteht $T$.
Um dies zu verstehen, brauchen wir eine letzte Zutat: ein inneres Produkt. Dies ist nur etwas, das das bekannte " Punktprodukt " in drei Dimensionen verallgemeinert . Das innere Produkt zweier Funktionen$f$, $g$ ist eine reelle Zahl, definiert als $$\langle f,g\rangle := \int_{0}^{\infty} f(x)g(x) dx$$.
Eine Basis von Funktionen $\{f_n: n \in \mathbb{N}\}$heißt orthonormal wenn$\langle f_n, f_n \rangle = 1$ und $\langle f_n, f_m \rangle = 0$ wann $n \neq m$.
Schließlich müssen wir nur noch den Operator überprüfen $\frac{d}{dx}$ist selbstadjunkt. Dies bedeutet, dass für zwei beliebige Funktionen$f$, $g$ wir haben das $\langle \frac{d^2 f}{dx^2},g\rangle = \langle f,\frac{d^2g}{dx^2} \rangle$. Dies kann durch Teilintegration erfolgen:
$$\int_{0}^{L} f''(x)g(x) dx = - \int_{0}^{L} f'(x)g'(x) dx = \int_{0}^{L} f(x)g''(x) dx$$ wo wir die Randbedingungen weggeworfen haben, weil die Randbedingungen uns sagen, dass sie Null sind.
Daher der Betreiber $\frac{d^2}{dx^2}$ ist selbstadjunkt, und so sagt uns der Spektralsatz, dass seine Eigenvektoren eine Grundlage für unseren Funktionsraum bilden, also für jeden gegebenen $t$Wir können jede gewählte Funktion als ausdrücken$$f = \sum_{n=0}^{\infty} \varphi_n(x) G_n(t)$$Wir haben also keine Lösungen verloren, indem wir die Gleichung so schreiben können. Ich habe hier einige technische Probleme übersprungen: Ich habe Ihnen nicht gesagt, was der Hilbert-Raum ist, und wenn ich "irgendeine" Funktion sage, meine ich wirklich "jede quadratisch integrierbare" Funktion. Aber ich denke nicht, dass diese technischen Details für das Verständnis wichtig sind.
Als lustiges Extra können wir jetzt, da wir unser inneres Produkt haben, es verwenden, um einfach die Koeffizienten in unserer Serienlösung abzuleiten. Wir schreiben unsere Lösung als$$f(x,t) = \sum_{n=0}^{\infty} \varphi_n(t) G_n(x)$$ und nun nehmen wir das innere Produkt von $f$ mit dem Basiselement $\varphi_n(x)$. Das gibt uns
$$\langle f(x,0), \varphi_n(x) = \langle \sum_{k=0}^{\infty} \varphi_k(x) G_k(0), \varphi_n(x) \rangle = \sum_{k=0}^{\infty} G_k(0) \langle \varphi_k(x) , \varphi_n(x) \rangle = \sum_{k=0}^{\infty} G_k(0) \langle \varphi_k(x) , \varphi_n(x) \rangle $$
Hier haben wir Integration und Summation ausgetauscht. Schließlich die Orthonormalität der Basis$\{\varphi_k(x)\}$ bedeutet, dass alle Begriffe außer eins Null sind, also bekommen wir $$ \langle f(x,0), \varphi_n(x) = G_n(0) $$ Erinnere dich daran $G_n(t) = B_n e^{-k\frac{n\pi}{L}^2 t}$, damit $B_n = G_n(0)$ und wenn wir unsere innere Produktformel als Integral schreiben, bekommen wir $$\int_{0}^{L} f(x,0) \varphi_n(x) dx = \int_{0}^{L} f(x,0) \sin(\frac{n\pi x}{L}) dx $$ Das ist unser üblicher Ausdruck für die Serienkoeffizienten!
Die Methode zur Trennung von Variablen leitet sich aus den Symmetrien der Gleichung ab, siehe z. B. W. Millers Buch Symmetry and Separation of Variables (vergriffen, aber hier erhältlich ).
Die Trennung von Variablen für nichtlineare Gleichungen wird von Victor A. Galaktionov, Sergey R. Svirshchevskii in ihrem Buch Exakte Lösungen und invariante Teilräume nichtlinearer partieller Differentialgleichungen , Chapman und Hall / CRC 2007, behandelt.