Reihenfolge der Indizes in $\Lambda^\mu_{\space\space\nu}$ [Duplikat]
Ich habe einige Fragen zur Reihenfolge der Indizes, die sich sowohl oben als auch unten befinden. Nehmen wir ein Beispiel:$\Lambda^\mu_{\space\space\nu}$ ist ein Lorentz-Transfom, wenn die folgende Gleichung erfüllt ist: $$ \Lambda^\mu_{\space\space\sigma} \eta^{\sigma \tau}\Lambda^\nu_{\space\space\tau}=\eta^{\mu \nu}. $$ In der Matrixnotation bedeutet das $$ \Lambda \eta^{-1}\Lambda^T =\eta^{-1}. $$
Meine Frage ist: Warum müssen wir platzieren$\mu$ Vor $\nu$ im Ausdruck $\Lambda^\mu_{\space\space\nu}$? (anstatt nur vertikal darüber)
Ich habe einen Moment darüber nachgedacht und bekomme folgende Ideen:
- Putten $\mu$ Vor $\nu$erinnert uns daran, dass die Notation die übliche Reihenfolge der Matrixmultiplikation ist. Normalerweise schreiben wir$\Lambda^\mu_{\space\space\nu} x^\nu$ lieber als $ x^\nu\Lambda^\mu_{\space\space\nu}$, weil wir möchten $\nu$ist "näher beieinander". Dies entspricht unserer Reihenfolge, eine Matrix zu schreiben, die einen (kontravarianten) Vektor multipliziert$\Lambda \mathbf x$.
- Es gibt zum Beispiel Ausnahmen zu Punkt 1 $\Lambda^\mu_{\space\space\sigma} \eta^{\sigma \tau}\Lambda^\nu_{\space\space\tau}$, weil wir hier die zweite Lorentz-Matrix transponieren.
- Wenn wir jedoch mehr als zwei Indizes haben, sind die obigen Ideen wenig sinnvoll. Wenn wir haben und Ausdruck mögen$A^{\mu_1\mu_2 \ldots \mu_k}_{\nu_1 \nu_2 \ldots \nu_l} x^{\nu_1}\ldots x^{\nu_n}y_{\mu_1}\ldots y_{\mu_n}$, wer weiß, was die "richtige" Reihenfolge der Indizes von ist $a$ und $x,y$? Mathematisch scheint es keinen Grund für eine bestimmte Reihenfolge zu geben, da ein Tensorprodukt von Vektorräumen nicht von der Reihenfolge (bis zum Isomorphismus) abhängt, in der wir das Produkt nehmen.
Sind die obigen Beobachtungen richtig? Gibt es noch andere Gründe für die Bestellung?
Schließlich werden wir jemals so etwas sehen $$ \Lambda^{\space\space\mu}_{\sigma}? $$ dh unten vor oben.
Antworten
Hier ist ein vollständigeres Bild. Schritt für Schritt:

Ein Koordinatensystem $x$ kann als vielfältige Karte aus der Raumzeit gesehen werden $M$ zu $\mathbf{R}^4$. Das ist,$$x \colon M \to \mathbf{R}^4\ ,$$ so dass $\bigl(x^0(P), \dotsc, x^3(P)\bigr)$ sind die Koordinaten des Verteilerpunktes (Ereignisses) $P$.
Wenn wir zwei verschiedene Koordinatensysteme haben $x$ und $y$betrachten wir die Karte aus einer Kopie von $\mathbf{R}^4$ zum anderen gehen $\mathbf{R}^4\xrightarrow{y^{-1}}M\xrightarrow{x}\mathbf{R}^4$:: $$x\circ y^{-1} \colon \mathbf{R}^4 \to \mathbf{R}^4 \ ,$$ das ist die Änderung der Koordinaten.
Ein Koordinatensystem $x$ hat auch eine zugehörige Tangentenkarte $$x_P' \colon \mathrm{T}_PM \to \mathrm{T}_{x(P)}\mathbf{R}^4 \equiv \mathbf{R}^4 \ ,$$wobei die letzte Äquivalenz ein kanonischer Isomorphismus ist. Dies ist die Karte, durch die wir einen Tangentenvektor von darstellen$M$ als Vierfacher reeller Zahlen.
Auch der Koordinatenänderungskarte ist eine Tangentenkarte zugeordnet: $$(x \circ y^{-1})_{y(P)}' \colon \mathrm{T}_{y(P)}\mathbf{R}^4 \to \mathrm{T}_{x(P)}\mathbf{R}^4 \ ,$$ Dies gibt das Vierfache der reellen Zahlen an $y_P'$ zu dem verbunden mit $x_P'$. Und das ist was$\Lambda$ eigentlich ist: es nimmt die Komponenten eines Tangentenvektors in einem Koordinatensystem und ergibt die Komponenten im anderen: $\Lambda_{y(P)} := (x \circ y^{-1})_{y(P)}'$.
Diese Karte kann auch als sogenannter "Zweipunkt-Tensor" betrachtet werden: ein Objekt, das zum Tensorprodukt des Tangentenraums an einem Punkt eines Verteilers mit dem Tangentenraum an einem Punkt eines anderen Verteilers oder an einem Punkt gehört unterschiedlicher Punkt des gleichen Verteilers. (Eine Kuriosität: Zwei-Punkt-Tensoren wurden beispielsweise von Einstein in seiner teleparallelen Formulierung der allgemeinen Relativitätstheorie berücksichtigt.)
Da diese Tangentenkarte einen Vektor abbildet $\pmb{u}$ (im $\mathrm{T}_{y(P)}\mathbf{R}^4$) zu einem anderen Vektor $\pmb{v}$ (im $\mathrm{T}_{x(P)}\mathbf{R}^4$) können wir seine Operation mit der üblichen Notation "Aktion auf der rechten Seite" schreiben: $$\pmb{v} = \Lambda\pmb{u}$$typisch für lineare Algebra (und lineare Algebra ist genau das, was wir tun!). Als Tensorkontraktion interpretiert, ziehen wir uns zusammen$\Lambda$Tensorschlitz auf der rechten Seite.
Dies ist der Grund, warum traditionell der niedrigere Index (der mit Vektoren kontrahiert) rechts ist.
Dies dient nur dazu, Ihnen das vollständige Bild und den Grund dafür zu geben, aber Sie müssen sich nicht zu viele Sorgen machen. Wenn Sie neugierig auf Zweipunkttensoren und mehr sind, überprüfen Sie zum Beispiel
- Truesdell, Toupin: Die klassischen Feldtheorien (Springer 1960), Anhang. Tensorfelder .
Und für Tangentenkarten, Koordinatensysteme usw. ist immer eine hervorragende Referenz
- Choquet-Bruhat, DeWitt-Morette, Dillard-Bleick: Analyse, Mannigfaltigkeiten und Physik. Teil I: Grundlagen (rev. Ed. Elsevier 1996).
Zusätzlicher Hinweis zum Anheben oder Absenken der Indizes von $\Lambda$
$\Lambda\colon \mathrm{T}_{y(P)}\mathbf{R}^4 \to \mathrm{T}_{x(P)}\mathbf{R}^4$ist nur eine nicht singuläre lineare Karte zwischen zwei Vektorräumen. Es wird also eine inverse Karte induziert$$\Lambda^{-1}\colon \mathrm{T}_{x(P)}\mathbf{R}^4 \to \mathrm{T}_{y(P)}\mathbf{R}^4$$ und auch eine Doppelkarte (transponieren) $$\Lambda^{\intercal} \colon \mathrm{T}^*_{x(P)}\mathbf{R}^{4} \to \mathrm{T}^*_{y(P)}\mathbf{R}^{4}$$vom Dual des ursprünglichen Ziels zum Dual der ursprünglichen Domäne. Usw.
Mit den Tangentenkarten $x'$ und $y'$ (und ihre Dualen) können wir auch allgemeinere Tensorobjekte abbilden $\mathrm{T}_PM$ zu Objekten auf $\mathrm{T}_{x(p)}\mathbf{R}^4$ und $\mathrm{T}_{y(p)}\mathbf{R}^4$ - Letztere sind die Koordinatenvertreter der $\mathrm{T}_PM$. Dies gilt auch für den metrischen Tensor oder dessen Umkehrung$M$. Wir haben einen Koordinaten-Proxy dafür$\mathrm{T}_{x(p)}\mathbf{R}^4$ (genauer gesagt auf $\mathrm{T}^*_{x(p)}\mathbf{R}^{4}\otimes\mathrm{T}^*_{x(p)}\mathbf{R}^{4}$) und noch eine auf $\mathrm{T}_{y(p)}\mathbf{R}^4$.
Der Zweipunkttensor $\Lambda$ hat ein kovariantes Bein (das ist wirklich der Fachbegriff) $\mathrm{T}_{y(p)}\mathbf{R}^4$, da es dort kontravariante Vektoren und ein kontravariantes Bein anziehen muss $\mathrm{T}_{y(p)}\mathbf{R}^4$, da es dort einen kontravarianten Vektor "hinterlegen" muss.
Wir können den Varianztyp jedes Beins ändern. Zum Beispiel können wir das Bein machen$y(P)$ kontravariant, indem wir es mit dem metrischen Proxy abschließen, den wir erstellt haben $\mathrm{T}_{y(p)}\mathbf{R}^4$. Das Ergebnis ist eine neue Zweipunkt-Tensor- oder lineare Karte, in der Co- Vektoren abgebildet werden$\mathrm{T}^*_{y(p)}\mathbf{R}^{4}$ zu Vektoren in $\mathrm{T}_{x(p)}\mathbf{R}^{4}$. Dies ist eine Art gemischte Operation: Wir nehmen einen Covektor in das Koordinatensystem$y$, Kontraktion mit dem inversen metrischen Tensor und Angabe des resultierenden Vektors im neuen Koordinatensystem $x$ (Ich persönlich denke, es ist am besten, diese beiden Arten von Operationen nicht zu mischen).
Wenn wir das Bein machen $y(P)$ kontravariante und das Bein auf $x(P)$ Kovariante unter Verwendung des Proxy-Invers-Metrik-Tensors ein $y(P)$ und der metrische Tensor an $x(P)$, dann ist das Ergebnis $\Lambda^{-\intercal}$, die Umkehrung der Transponierung von $\Lambda$. Wir hätten jedoch jede andere nicht singuläre bilineare Form anstelle des metrischen Tensors verwenden können, um diese Operation durchzuführen. Was es tatsächlich tut, ist, einen Covektor in das Koordinatensystem aufzunehmen$y$, transformiere es durch eine Transformation in einen Vektor, ändere seine Koordinatendarstellung in das System $y$und transformiere es schließlich zurück in einen Covektor unter Verwendung der Umkehrung der anfänglichen Transformation (was auch immer es war).
Die einfache Antwort ist , dass wir nicht brauchen , um einen Auftrag zu den Indizes zuweisen in${\Lambda^\mu}_\nu$Berechnungen durchzuführen, aber es ist notwendig, wenn wir sie als Matrizen betrachten wollen. Ich denke, ich spreche für viele Leute, wenn ich sage, dass die Matrixnotation etwas einfacher zu lesen / aufzuschreiben ist. Aber es ist möglicherweise nicht immer klar, wie die beiden zu übersetzen sind, und manchmal ist es einfach nicht möglich. Nehmen Sie zum Beispiel das innere Produkt, als das Sie schreiben können$$u\cdot v=u_\mu v^\mu=\mathbf u^T\mathbf v=\begin{pmatrix}u_1&u_2&u_3\end{pmatrix}\begin{pmatrix}v_1\\v_2\\v_3\end{pmatrix}.$$In diesem Beispiel könnten Sie argumentieren, dass obere Indizes Spaltenvektoren und untere Indizes Zeilenvektoren zugeordnet sind. Das ist Ihnen vielleicht aus der Quantenmechanik bekannt. Sie haben Kets, die Vektoren sind, und BHs, die Vektoren essen, und sie werden jeweils durch Spaltenvektoren bzw. Zeilenvektoren dargestellt. Nehmen wir ein weiteres Beispiel, das diese Idee verstärkt.$$(A\mathbf v)^i={A^i}_jv^j=\begin{pmatrix}A_{11}&A_{12}\\A_{21}&A_{22}\end{pmatrix}\begin{pmatrix}v_1\\v_2\end{pmatrix}$$Wiederum sind obere Indizes mit 'Spaltenheit' und untere Indizes mit 'Rowness' verbunden. Die Matrix$A$ isst einen Vektor (unterer Index $j$) und gibt einen anderen Vektor aus (oberer Index $i$). Nun ein Gegenbeispiel. Wie wäre es mit$x^\mu g_{\mu\nu}y^\nu$? In diesem Fall$g$hat zwei niedrigere Indizes. Es frisst zwei Vektoren. Aber wie stellen wir etwas dar, das zwei Vektoren frisst? Es gibt einen Hack, den du machen kannst. Sie können es als darstellen$$x^\mu g_{\mu\nu}y^\nu=\begin{pmatrix}x_1&x_2\end{pmatrix}\begin{pmatrix}g_{11}&g_{12}\\g_{21}&g_{22}\end{pmatrix}\begin{pmatrix}y_1\\y_2\end{pmatrix}$$ Beachten Sie, dass es der Natur von nicht gerecht wird $g$. Es ist im Grunde etwas, das zwei Vektoren frisst, aber es wird als etwas dargestellt, das einen Vektor frisst und einen anderen ausspuckt. Dies ist möglich, weil lineare Funktionale (Dinge, die einen Vektor essen und einen Vektor ausspucken) dual zu Vektoren sind. Sie können auf intuitive Weise ineinander geändert werden.
Hier lade ich Sie ein, ein wenig von der Idee von Ausdrücken wie loszulassen $g_{\mu\nu}$Matrizen sein. Manchmal können Ausdrücke in Indexnotation als Matrizen und Vektoren ausgedrückt werden, was sehr schön ist. Es macht es einfacher zu sehen, was Sie tun. Aber im Allgemeinen sind sie diesen Matrizen nicht gleich. Wann immer Sie zwischen den beiden konvertieren, müssen Sie nur sicherstellen, dass sie konsistent sind. Sie müssen sicherstellen, dass Sie über die richtigen Indizes summieren und die richtige Antwort erhalten. Wenn Sie einen Ausdruck in das Formular schreiben können$$A_{ij}B_{jk}v_k$$Wenn jeder dieser Indizes höher oder niedriger sein kann, können Sie ihn sicher als Matrixmultiplikation schreiben. Wie Sie bereits erwähnt haben, müssen die summierten Indizes nur nahe beieinander liegen.
Wie repräsentieren Sie so etwas? ${A^{\mu_1,\dots\mu_m}}_{\nu_1\dots\nu_n}x^{\nu_1}\dots x^{\nu_n}y_{\mu_1}\dots y_{\mu_m}$als Matrixmultiplikation? Ich würde es nicht wissen!
Wenn Sie haben $A^{\mu_1 \mu_2 \mu_3}$ Sie können sich das als dreidimensionale Matrix vorstellen, also fügen Sie der Idee eine Dimension hinzu $A^{\mu_1 \mu_2}$als Matrix. Sie können sich eine neue Reihe von Zeilen vorstellen, die "innerhalb" der Seite verlaufen. Sie können verstehen, wie wichtig die Reihenfolge ist, weil der erste Index$\mu_1$ beschriftet die "Standard" -Zeilen, die zweite die Spalten und die dritte $\mu_3$beschriftet die Zeile "innerhalb der Seite". Wenn Sie dann einen der Indizes austauschen, wählen Sie ein anderes Element der 3D-Matrix aus. Und diese Idee kann auf höhere Dimensionen ausgedehnt werden.
$\Lambda$ist nur eine Matrix, kein Tensor. Der Index links bezeichnet die Zeile und der Index rechts bezeichnet die Spalte. Das Positionieren eines Index höher als der andere ist für die Verwendung der Einstein-Summation einfach praktisch. Es gibt keine tiefere Bedeutung wie bei Tensoren.
Um Ihre letzte Frage zu beantworten: \ begin {Gleichung} {\ Lambda_j} ^ i: = {\ left (\ Lambda ^ {T} \ right) ^ j} _i = {\ Lambda ^ i} _j \ end {Gleichung}