Porządkowanie indeksów w $\Lambda^\mu_{\space\space\nu}$ [duplikować]

Dec 07 2020

Mam kilka pytań dotyczących kolejności indeksów na górze i na dole. Weźmy przykład:$\Lambda^\mu_{\space\space\nu}$ jest transforą Lorentza, jeśli spełnione jest następujące równanie: $$ \Lambda^\mu_{\space\space\sigma} \eta^{\sigma \tau}\Lambda^\nu_{\space\space\tau}=\eta^{\mu \nu}. $$ W notacji macierzowej oznacza to $$ \Lambda \eta^{-1}\Lambda^T =\eta^{-1}. $$

Moje pytanie brzmi: dlaczego musimy umieścić$\mu$ przed $\nu$ w wyrażeniu $\Lambda^\mu_{\space\space\nu}$? (a nie tylko pionowo nad nim)

Myślałem o tym przez chwilę i otrzymałem następujące pomysły:

  1. Kładzenie $\mu$ przed $\nu$przypomina nam, aby zapisać notację jest zwykłą kolejnością mnożenia macierzy. Zwykle piszemy$\Lambda^\mu_{\space\space\nu} x^\nu$ zamiast $ x^\nu\Lambda^\mu_{\space\space\nu}$, bo byśmy chcieli $\nu$ma być „bliżej siebie”. Odpowiada to naszej kolejności pisania macierzy mnożącej (kontrawariantny) wektor$\Lambda \mathbf x$.
  2. Na przykład istnieją wyjątki od punktu 1 $\Lambda^\mu_{\space\space\sigma} \eta^{\sigma \tau}\Lambda^\nu_{\space\space\tau}$, ponieważ tutaj transponujemy drugą macierz Lorentza.
  3. Jeśli jednak mamy więcej niż dwa wskaźniki, powyższe pomysły nie mają większego sensu. Jeśli mamy i wyrażenie lubimy$A^{\mu_1\mu_2 \ldots \mu_k}_{\nu_1 \nu_2 \ldots \nu_l} x^{\nu_1}\ldots x^{\nu_n}y_{\mu_1}\ldots y_{\mu_n}$, kto wie, jaka jest „poprawna” kolejność indeksów $a$ i $x,y$? Matematycznie wydaje się, że nie ma powodu do szczególnego uporządkowania, ponieważ iloczyn tensorowy przestrzeni wektorowych nie zależy od kolejności (aż do izomorfizmu), w której bierzemy iloczyn.

Czy powyższe obserwacje są poprawne? Czy są jakieś inne powody złożenia zamówienia?

Wreszcie, czy kiedykolwiek zobaczymy coś takiego $$ \Lambda^{\space\space\mu}_{\sigma}? $$ tj. na dole przed na górze.

Odpowiedzi

4 pglpm Dec 07 2020 at 20:39

Oto pełniejszy obraz. Krok po kroku:

Układ współrzędnych $x$ może być postrzegane jako różnorodna mapa z czasoprzestrzeni $M$ do $\mathbf{R}^4$. To jest,$$x \colon M \to \mathbf{R}^4\ ,$$ po to aby $\bigl(x^0(P), \dotsc, x^3(P)\bigr)$ są współrzędnymi punktu kolektora (zdarzenia) $P$.

Kiedy mamy dwa różne układy współrzędnych $x$ i $y$, rozważamy mapę z jednego egzemplarza $\mathbf{R}^4$ do drugiego, idąc $\mathbf{R}^4\xrightarrow{y^{-1}}M\xrightarrow{x}\mathbf{R}^4$: $$x\circ y^{-1} \colon \mathbf{R}^4 \to \mathbf{R}^4 \ ,$$ to jest zmiana współrzędnych.

Układ współrzędnych $x$ ma również skojarzoną mapę styczną $$x_P' \colon \mathrm{T}_PM \to \mathrm{T}_{x(P)}\mathbf{R}^4 \equiv \mathbf{R}^4 \ ,$$gdzie ostatnią równoważnością jest izomorfizm kanoniczny. To jest mapa, przez którą reprezentujemy wektor styczny$M$ jako czterokrotność liczb rzeczywistych.

Również mapa zmiany współrzędnych ma powiązaną mapę styczną: $$(x \circ y^{-1})_{y(P)}' \colon \mathrm{T}_{y(P)}\mathbf{R}^4 \to \mathrm{T}_{x(P)}\mathbf{R}^4 \ ,$$ co daje czterokrotność liczb rzeczywistych związanych z $y_P'$ do tego związanego z $x_P'$. A oto co$\Lambda$ w rzeczywistości jest: pobiera komponenty wektora stycznego w jednym układzie współrzędnych i daje komponenty w drugim: $\Lambda_{y(P)} := (x \circ y^{-1})_{y(P)}'$.

Mapę tę można również uznać za tak zwany „tensor dwupunktowy”: obiekt należący do iloczynu tensorowego przestrzeni stycznej w punkcie rozmaitości z przestrzenią styczną w punkcie innej rozmaitości lub w inny punkt tej samej rozmaitości. (Ciekawostka: tensory dwupunktowe były na przykład rozważane przez Einsteina w jego teleparalelnym sformułowaniu ogólnej teorii względności).

Ponieważ ta mapa styczna odwzorowuje wektor $\pmb{u}$ (w $\mathrm{T}_{y(P)}\mathbf{R}^4$) do innego wektora $\pmb{v}$ (w $\mathrm{T}_{x(P)}\mathbf{R}^4$), możemy zapisać jego działanie przy użyciu zwykłej notacji „akcja po prawej”: $$\pmb{v} = \Lambda\pmb{u}$$typowe dla algebry liniowej (a algebra liniowa jest tym, co robimy!). Zinterpretowane jako skurcz tensorowy, z którym się skurczamy$\Lambda$szczelina tensora po jej prawej stronie.

To jest powód, dla którego tradycyjnie niższy indeks (który kurczy się z wektorami) znajduje się po prawej stronie.

To jest tylko po to, aby dać ci pełny obraz i powód, ale nie musisz się tym zbytnio martwić. Jeśli interesują Cię tensory dwupunktowe i więcej na ten temat, sprawdź na przykład

  • Truesdell, Toupin: The Classical Field Theories (Springer 1960), dodatek. Pola tensorowe .

A w przypadku map stycznych, układów współrzędnych itp. Zawsze jest doskonałym punktem odniesienia

  • Choquet-Bruhat, DeWitt-Morette, Dillard-Bleick: Analysis, Manifolds and Physics. Część I: Podstawy (wyd. Wyd. Elsevier 1996).

Dodatkowa uwaga na temat podnoszenia lub obniżania indeksów $\Lambda$

$\Lambda\colon \mathrm{T}_{y(P)}\mathbf{R}^4 \to \mathrm{T}_{x(P)}\mathbf{R}^4$jest po prostu niejednakową liniową mapą między dwiema przestrzeniami wektorowymi. Więc wywołuje odwrotną mapę$$\Lambda^{-1}\colon \mathrm{T}_{x(P)}\mathbf{R}^4 \to \mathrm{T}_{y(P)}\mathbf{R}^4$$ a także podwójna mapa (transpozycja) $$\Lambda^{\intercal} \colon \mathrm{T}^*_{x(P)}\mathbf{R}^{4} \to \mathrm{T}^*_{y(P)}\mathbf{R}^{4}$$od podwójności pierwotnego celu do podwójnej domeny początkowej. I tak dalej.

Korzystając z map stycznych $x'$ i $y'$ (i ich dualności) możemy również mapować bardziej ogólne obiekty tensoryczne $\mathrm{T}_PM$ obiektów na $\mathrm{T}_{x(p)}\mathbf{R}^4$ i $\mathrm{T}_{y(p)}\mathbf{R}^4$ - ten ostatni będzie koordynatorem przedstawicieli tych na $\mathrm{T}_PM$. Dotyczy to również tensora metrycznego lub jego odwrotności$M$. Mamy włączone proxy dla współrzędnych$\mathrm{T}_{x(p)}\mathbf{R}^4$ (a dokładniej na $\mathrm{T}^*_{x(p)}\mathbf{R}^{4}\otimes\mathrm{T}^*_{x(p)}\mathbf{R}^{4}$) i kolejny włączony $\mathrm{T}_{y(p)}\mathbf{R}^4$.

Tensor dwupunktowy $\Lambda$ ma jedną kowariantną nogę (to jest naprawdę termin techniczny) na $\mathrm{T}_{y(p)}\mathbf{R}^4$ponieważ musi tam zawężać kontrawariantne wektory i przeciwną nogę dalej $\mathrm{T}_{y(p)}\mathbf{R}^4$, ponieważ musi tam „zdeponować” kontrawariantny wektor.

Możemy zmienić typ wariancji każdej nogi. Na przykład możemy założyć nogę$y(P)$ kontrawariantny, kontraktując go z metrycznym proxy, na którym utworzyliśmy $\mathrm{T}_{y(p)}\mathbf{R}^4$. Rezultatem jest nowa dwupunktowa tensor lub liniowy mapa, która odwzorowuje współpracowników wektorów w$\mathrm{T}^*_{y(p)}\mathbf{R}^{4}$ do wektorów w $\mathrm{T}_{x(p)}\mathbf{R}^{4}$. To jest rodzaj operacji mieszanej: bierzemy współrzędnych w układzie współrzędnych$y$, skracając go z odwrotnym tensorem metrycznym i podając wynikowy wektor w nowym układzie współrzędnych $x$ (Osobiście uważam, że najlepiej nie mieszać tych dwóch różnych rodzajów operacji).

Jeśli założymy nogę $y(P)$ kontrawariant i noga na nogach $x(P)$ kowariantna przy użyciu odwrotnego tensora metryki zastępczej $y(P)$ a metryczny tensor włączony $x(P)$, to wynik jest $\Lambda^{-\intercal}$, odwrotność transpozycji $\Lambda$. Ale zamiast tensora metrycznego moglibyśmy użyć dowolnej innej, niejednolitej postaci dwuliniowej, aby wykonać tę operację. To, co faktycznie robi, to uwzględnienie współrzędnych w układzie współrzędnych$y$przekształcić go w wektor za pomocą jakiejś transformacji, zmienić jego reprezentację w układzie współrzędnych $y$, a na koniec przekształć go z powrotem w kowektor, używając odwrotności pierwotnej transformacji (cokolwiek to było).

1 AccidentalTaylorExpansion Dec 07 2020 at 19:29

Prosta odpowiedź jest taka, że ​​nie musimy przypisywać kolejności indeksom w${\Lambda^\mu}_\nu$do obliczeń, ale jest to konieczne, jeśli chcemy zobaczyć je jako macierze. Myślę, że mówię do wielu ludzi, gdy mówię, że notacja macierzowa jest nieco łatwiejsza do odczytania / zapisania. Ale nie zawsze jest jasne, jak to przetłumaczyć, a czasami jest to po prostu niemożliwe. Weźmy na przykład iloczyn skalarny, który możesz zapisać jako$$u\cdot v=u_\mu v^\mu=\mathbf u^T\mathbf v=\begin{pmatrix}u_1&u_2&u_3\end{pmatrix}\begin{pmatrix}v_1\\v_2\\v_3\end{pmatrix}.$$W tym przykładzie można argumentować, że górne indeksy są skojarzone z wektorami kolumn, a dolne z wektorami wierszowymi. Być może znasz to z mechaniki kwantowej. Masz kety, które są wektorami i stanikami, które zjadają wektory i każdy z nich jest reprezentowany odpowiednio przez wektory kolumnowe lub wektory wierszowe. Weźmy inny przykład, który wzmacnia tę ideę.$$(A\mathbf v)^i={A^i}_jv^j=\begin{pmatrix}A_{11}&A_{12}\\A_{21}&A_{22}\end{pmatrix}\begin{pmatrix}v_1\\v_2\end{pmatrix}$$Ponownie indeksy górne są powiązane z „kolumnowością”, a indeksy dolne są powiązane z „odchyleniem”. Macierz$A$ zjada wektor (dolny indeks $j$) i wyprowadza inny wektor (górny indeks $i$). Teraz kontrprzykład. Co powiesz na$x^\mu g_{\mu\nu}y^\nu$? W tym przypadku$g$ma dwa niższe wskaźniki. Zjada dwa wektory. Ale jak przedstawimy coś, co zjada dwa wektory? Jest włamanie, które możesz zrobić. Możesz to przedstawić jako$$x^\mu g_{\mu\nu}y^\nu=\begin{pmatrix}x_1&x_2\end{pmatrix}\begin{pmatrix}g_{11}&g_{12}\\g_{21}&g_{22}\end{pmatrix}\begin{pmatrix}y_1\\y_2\end{pmatrix}$$ Zwróć uwagę, że nie oddaje on charakteru $g$. Zasadniczo jest to coś, co zjada dwa wektory, ale jest przedstawiane jako coś, co zjada jeden wektor i wypluwa inny. Jest to możliwe, ponieważ funkcjonały liniowe (rzeczy, które zjadają wektor i wypluwają wektor) są podwójne do wektorów. Można je zmieniać w siebie w intuicyjny sposób.

Więc tutaj zapraszam do puszczenia trochę idei wyrażeń typu $g_{\mu\nu}$matryce „bycia”. Czasami wyrażenia w notacji indeksu można wyrazić jako macierze i wektory, co jest miłe. Dzięki temu łatwiej jest zobaczyć, co robisz. Ale generalnie nie są one równe tym macierzom. Za każdym razem, gdy dokonujesz konwersji między tymi dwoma, musisz tylko upewnić się, że są spójne. Musisz upewnić się, że zsumowałeś właściwe indeksy i otrzymałeś właściwą odpowiedź. Kiedy jesteś w stanie napisać wyrażenie w formularzu$$A_{ij}B_{jk}v_k$$gdzie każdy z tych indeksów może być wyższy lub niższy, możesz bezpiecznie zapisać go jako mnożenie macierzy. Jak wspomniałeś, wystarczy, że zsumowane indeksy będą blisko siebie.

Jak więc przedstawiasz coś takiego ${A^{\mu_1,\dots\mu_m}}_{\nu_1\dots\nu_n}x^{\nu_1}\dots x^{\nu_n}y_{\mu_1}\dots y_{\mu_m}$jako mnożenie macierzy? Nie wiedziałbym!

TheoPhy Dec 07 2020 at 19:01

Jeśli masz $A^{\mu_1 \mu_2 \mu_3}$ możesz myśleć o tym jako o trójwymiarowej macierzy, więc dodajesz wymiar do idei $A^{\mu_1 \mu_2}$jako macierz. Możesz sobie wyobrazić nowy zestaw wierszy, które wchodzą „do środka” strony. Możesz zrozumieć, jak ważna jest kolejność, ponieważ pierwszy indeks$\mu_1$ oznacza „standardowe” wiersze, drugi to kolumny, a trzeci $\mu_3$oznacza etykietowanie wiersza „wewnątrz strony”. Następnie wymieniając jeden z indeksów wybierasz inny element macierzy 3D. I ten pomysł można rozszerzyć na wyższe wymiary.

Filippo Dec 07 2020 at 19:57

$\Lambda$jest tylko macierzą, a nie tensorem. Indeks po lewej stronie oznacza wiersz, a indeks po prawej stronie oznacza kolumnę. Umieszczenie jednego indeksu wyżej od drugiego jest po prostu praktyczne przy użyciu sumowania Einsteina. Nie ma głębszego znaczenia, jak w przypadku tensorów.

Aby odpowiedzieć na twoje ostatnie pytanie: \ begin {equation} {\ Lambda_j} ^ i: = {\ left (\ Lambda ^ {T} \ right) ^ j} _i = {\ Lambda ^ i} _j \ end {equation}