Ordre des indices en $\Lambda^\mu_{\space\space\nu}$ [dupliquer]

Dec 07 2020

J'ai des questions sur l'ordre des index qui sont à la fois en haut et en bas. Prenons un exemple:$\Lambda^\mu_{\space\space\nu}$ est un transfom de Lorentz si l'équation suivante est satisfaite: $$ \Lambda^\mu_{\space\space\sigma} \eta^{\sigma \tau}\Lambda^\nu_{\space\space\tau}=\eta^{\mu \nu}. $$ En notation matricielle, cela signifie $$ \Lambda \eta^{-1}\Lambda^T =\eta^{-1}. $$

Ma question est: pourquoi devons-nous placer$\mu$ avant $\nu$ dans l'expression $\Lambda^\mu_{\space\space\nu}$? (plutôt que juste verticalement au-dessus)

J'y ai réfléchi pendant un moment et j'ai les idées suivantes:

  1. En mettant $\mu$ avant $\nu$nous rappelle d'écrire la notation est l'ordre habituel de multiplication matricielle. Habituellement, nous écrivons$\Lambda^\mu_{\space\space\nu} x^\nu$ plutôt que $ x^\nu\Lambda^\mu_{\space\space\nu}$, parce que nous aimerions $\nu$«être plus proches les uns des autres». Cela correspond à notre ordre d'écriture d'une matrice multipliant un vecteur (contravariant)$\Lambda \mathbf x$.
  2. Il y a des exceptions au point 1, par exemple $\Lambda^\mu_{\space\space\sigma} \eta^{\sigma \tau}\Lambda^\nu_{\space\space\tau}$, car ici nous transposons la deuxième matrice de Lorentz.
  3. Cependant, si nous avons plus de deux indices, les idées ci-dessus n'ont guère de sens. Si nous avons une expression comme$A^{\mu_1\mu_2 \ldots \mu_k}_{\nu_1 \nu_2 \ldots \nu_l} x^{\nu_1}\ldots x^{\nu_n}y_{\mu_1}\ldots y_{\mu_n}$, qui sait quel est l'ordre "correct" des indices de $a$ et $x,y$? Mathématiquement, il ne semble pas y avoir de raison pour un ordre particulier, car un produit tensoriel d'espaces vectoriels ne dépend pas de l'ordre (jusqu'à l'isomorphisme) dans lequel nous prenons le produit.

Les observations ci-dessus sont-elles correctes? Y a-t-il d'autres raisons pour la commande?

Enfin, verrons-nous jamais quelque chose comme $$ \Lambda^{\space\space\mu}_{\sigma}? $$ c'est à dire en bas avant à l'étage.

Réponses

4 pglpm Dec 07 2020 at 20:39

Voici une image plus complète. Pas à pas:

Un système de coordonnées $x$ peut être vu comme une carte multiple de l'espace-temps $M$ à $\mathbf{R}^4$. C'est,$$x \colon M \to \mathbf{R}^4\ ,$$ de sorte que $\bigl(x^0(P), \dotsc, x^3(P)\bigr)$ sont les coordonnées du point de manifold (événement) $P$.

Lorsque nous avons deux systèmes de coordonnées différents $x$ et $y$, nous considérons la carte à partir d'une copie de $\mathbf{R}^4$ à l'autre, aller $\mathbf{R}^4\xrightarrow{y^{-1}}M\xrightarrow{x}\mathbf{R}^4$: $$x\circ y^{-1} \colon \mathbf{R}^4 \to \mathbf{R}^4 \ ,$$ c'est le changement de coordonnées.

Un système de coordonnées $x$ a également une carte de tangente associée $$x_P' \colon \mathrm{T}_PM \to \mathrm{T}_{x(P)}\mathbf{R}^4 \equiv \mathbf{R}^4 \ ,$$où la dernière équivalence est un isomorphisme canonique. C'est la carte à travers laquelle nous représentons un vecteur tangent de$M$ comme un quadruple de nombres réels.

La carte de changement de coordonnées a également une carte de tangente associée: $$(x \circ y^{-1})_{y(P)}' \colon \mathrm{T}_{y(P)}\mathbf{R}^4 \to \mathrm{T}_{x(P)}\mathbf{R}^4 \ ,$$ ce qui donne le quadruple des nombres réels associés à $y_P'$ à celui associé à $x_P'$. Et c'est quoi$\Lambda$ est en fait: il prend les composants d'un vecteur tangent dans un système de coordonnées et donne les composants dans l'autre: $\Lambda_{y(P)} := (x \circ y^{-1})_{y(P)}'$.

Cette application peut également être considérée comme un soi-disant "tenseur à deux points": un objet qui appartient au produit tensoriel de l'espace tangent en un point d'une variété avec l'espace tangent en un point d'une variété différente, ou à un point différent de la même variété. (Une curiosité: les tenseurs à deux points ont par exemple été considérés par Einstein dans sa formulation téléparallèle de relativité générale.)

Puisque cette carte tangente cartographie un vecteur $\pmb{u}$ (dans $\mathrm{T}_{y(P)}\mathbf{R}^4$) vers un autre vecteur $\pmb{v}$ (dans $\mathrm{T}_{x(P)}\mathbf{R}^4$), nous pouvons écrire son opération avec la notation habituelle "action à droite": $$\pmb{v} = \Lambda\pmb{u}$$typique de l'algèbre linéaire (et l'algèbre linéaire est exactement ce que nous faisons!). Interprété comme une contraction tenseur, nous contractons avec$\Lambda$la fente tenseur de son côté droit.

C'est la raison pour laquelle, traditionnellement, l'indice inférieur (qui se contracte avec les vecteurs) est à droite.

C'est juste pour vous donner une image complète et la raison pour laquelle, mais vous n'avez pas à vous en soucier trop. Si vous êtes curieux de connaître les tenseurs à deux points et plus à ce sujet, vérifiez par exemple

  • Truesdell, Toupin: The Classical Field Theories (Springer 1960), Annexe. Champs de tension .

Et pour les cartes tangentes, les systèmes de coordonnées, etc., une excellente référence est toujours

  • Choquet-Bruhat, DeWitt-Morette, Dillard-Bleick: analyse, collecteurs et physique. Partie I: Bases (éd. Rév. Elsevier 1996).

Note complémentaire sur l'augmentation ou la baisse des indices de $\Lambda$

$\Lambda\colon \mathrm{T}_{y(P)}\mathbf{R}^4 \to \mathrm{T}_{x(P)}\mathbf{R}^4$est juste une carte linéaire non singulière entre deux espaces vectoriels. Donc cela induit une carte inverse$$\Lambda^{-1}\colon \mathrm{T}_{x(P)}\mathbf{R}^4 \to \mathrm{T}_{y(P)}\mathbf{R}^4$$ et aussi une double carte (transposer) $$\Lambda^{\intercal} \colon \mathrm{T}^*_{x(P)}\mathbf{R}^{4} \to \mathrm{T}^*_{y(P)}\mathbf{R}^{4}$$du dual de la cible initiale, au dual du domaine initial. Etc.

En utilisant les cartes tangentes $x'$ et $y'$ (et leurs duaux) nous pouvons également mapper des objets tensoriels plus généraux sur $\mathrm{T}_PM$ aux objets sur $\mathrm{T}_{x(p)}\mathbf{R}^4$ et $\mathrm{T}_{y(p)}\mathbf{R}^4$ - ces derniers seront les représentants coordonnés de ceux $\mathrm{T}_PM$. Ceci est également vrai pour le tenseur métrique ou son inverse sur$M$. Nous en avons un proxy coordonné sur$\mathrm{T}_{x(p)}\mathbf{R}^4$ (plus précisément sur $\mathrm{T}^*_{x(p)}\mathbf{R}^{4}\otimes\mathrm{T}^*_{x(p)}\mathbf{R}^{4}$) et un autre sur $\mathrm{T}_{y(p)}\mathbf{R}^4$.

Le tenseur à deux points $\Lambda$ a une jambe covariante (c'est vraiment le terme technique) sur $\mathrm{T}_{y(p)}\mathbf{R}^4$, puisqu'il doit y contracter des vecteurs contravariants, et une jambe contravariante sur $\mathrm{T}_{y(p)}\mathbf{R}^4$, puisqu'il doit y «déposer» un vecteur contravariant.

Nous pouvons changer le type de variance de chaque jambe. Par exemple, nous pouvons faire la jambe sur$y(P)$ contravariant, en le contractant avec le proxy métrique que nous avons fait sur $\mathrm{T}_{y(p)}\mathbf{R}^4$. Le résultat est un nouveau tenseur à deux points ou une nouvelle carte linéaire, qui cartographie les co vecteurs en$\mathrm{T}^*_{y(p)}\mathbf{R}^{4}$ aux vecteurs dans $\mathrm{T}_{x(p)}\mathbf{R}^{4}$. C'est une sorte d'opération mixte: on prend un covecteur dans le système de coordonnées$y$, en le contractant avec le tenseur métrique inverse, et en donnant le vecteur résultant dans le nouveau système de coordonnées $x$ (Personnellement, je pense qu'il vaut mieux ne pas mélanger ces deux types d'opérations).

Si nous faisons la jambe $y(P)$ contravariant et la jambe sur $x(P)$ covariante utilisant le tenseur métrique inverse proxy sur $y(P)$ et le tenseur métrique sur $x(P)$, alors le résultat est $\Lambda^{-\intercal}$, l'inverse de la transposition de $\Lambda$. Mais nous aurions pu utiliser n'importe quelle autre forme bilinéaire non singulière au lieu du tenseur métrique pour effectuer cette opération. Ce qu'il fait, en effet, c'est de prendre un covecteur dans le système de coordonnées$y$, transformez-le en vecteur au moyen d'une transformation, changez sa représentation de coordonnées en système $y$, et enfin le transformer en un covecteur en utilisant l'inverse de la transformation initiale (quelle qu'elle soit).

1 AccidentalTaylorExpansion Dec 07 2020 at 19:29

La réponse simple est que nous n'avons pas besoin d'attribuer un ordre aux indices dans${\Lambda^\mu}_\nu$faire des calculs mais c'est nécessaire si l'on veut les visualiser sous forme de matrices. Je pense que je parle au nom de beaucoup de gens quand je dis que la notation matricielle est légèrement plus facile à lire / écrire. Mais il n'est pas toujours clair comment traduire les deux et parfois ce n'est tout simplement pas possible. Prenons par exemple le produit interne que vous pouvez écrire comme$$u\cdot v=u_\mu v^\mu=\mathbf u^T\mathbf v=\begin{pmatrix}u_1&u_2&u_3\end{pmatrix}\begin{pmatrix}v_1\\v_2\\v_3\end{pmatrix}.$$À partir de cet exemple, vous pourriez affirmer que les indices supérieurs sont associés à des vecteurs de colonne et les indices inférieurs à des vecteurs de ligne. Cela vous est peut-être familier de la mécanique quantique. Vous avez des kets qui sont des vecteurs et des soutiens-gorge qui mangent des vecteurs et ils sont chacun représentés respectivement par des vecteurs de colonne ou des vecteurs de ligne. Prenons un autre exemple qui renforce cette idée.$$(A\mathbf v)^i={A^i}_jv^j=\begin{pmatrix}A_{11}&A_{12}\\A_{21}&A_{22}\end{pmatrix}\begin{pmatrix}v_1\\v_2\end{pmatrix}$$Là encore, les indices supérieurs sont associés à la «colonne-ness» et les indices inférieurs sont associés à la «rowness». La matrice$A$ mange un vecteur (indice inférieur $j$) et génère un autre vecteur (index supérieur $i$). Maintenant un contre-exemple. Qu'en est-il de$x^\mu g_{\mu\nu}y^\nu$? Dans ce cas$g$a deux indices inférieurs. Il mange deux vecteurs. Mais comment représenter quelque chose qui mange deux vecteurs? Il y a un hack que vous pouvez faire. Vous pouvez le représenter comme$$x^\mu g_{\mu\nu}y^\nu=\begin{pmatrix}x_1&x_2\end{pmatrix}\begin{pmatrix}g_{11}&g_{12}\\g_{21}&g_{22}\end{pmatrix}\begin{pmatrix}y_1\\y_2\end{pmatrix}$$ Notez que cela ne rend pas justice à la nature de $g$. C'est fondamentalement quelque chose qui mange deux vecteurs mais qui est représenté comme quelque chose qui mange un vecteur et en recrache un autre. Ceci est possible parce que les fonctionnelles linéaires (les choses qui mangent un vecteur et crachent un vecteur) sont duales à des vecteurs. Ils peuvent être modifiés les uns dans les autres de manière intuitive.

C'est donc là que je vous invite à laisser échapper un peu l'idée d'expressions comme $g_{\mu\nu}$«être» des matrices. Parfois, les expressions en notation d'index peuvent être exprimées sous forme de matrices et de vecteurs, ce qui est bien. Cela permet de voir plus facilement ce que vous faites. Mais en général, ils ne sont pas égaux à ces matrices. Chaque fois que vous convertissez entre les deux, il vous suffit de vous assurer qu'ils sont cohérents. Vous devez vous assurer de faire la somme des bons indices et d'obtenir la bonne réponse. Lorsque vous êtes capable d'écrire une expression sous la forme$$A_{ij}B_{jk}v_k$$où chacun de ces indices peut être supérieur ou inférieur, vous pouvez l'écrire en toute sécurité sous forme de multiplication matricielle. Comme vous l'avez mentionné, nous n'avons besoin que des indices additionnés pour être rapprochés.

Alors, comment représentez-vous quelque chose comme ${A^{\mu_1,\dots\mu_m}}_{\nu_1\dots\nu_n}x^{\nu_1}\dots x^{\nu_n}y_{\mu_1}\dots y_{\mu_m}$comme multiplication matricielle? Je ne saurais pas!

TheoPhy Dec 07 2020 at 19:01

Si tu as $A^{\mu_1 \mu_2 \mu_3}$ vous pouvez le considérer comme une matrice en 3 dimensions, donc vous ajoutez une dimension à l'idée $A^{\mu_1 \mu_2}$comme matrice. Vous pouvez imaginer un nouvel ensemble de lignes qui vont "à l'intérieur" de la page. Vous pouvez comprendre à quel point l'ordre est important car le premier index$\mu_1$ nomme les lignes «standard», la seconde les colonnes et la troisième $\mu_3$nomme la ligne «à l'intérieur de la page». Ensuite, si vous échangez l'un des indices, vous choisissez un élément différent de la matrice 3D. Et cette idée peut être étendue à des dimensions supérieures.

Filippo Dec 07 2020 at 19:57

$\Lambda$est juste une matrice, pas un tenseur. L'index sur la gauche indique la ligne et l'index sur la droite indique la colonne. Positionner un indice plus haut que l'autre est simplement pratique pour utiliser la sommation d'Einstein. Il n'y a pas de sens plus profond comme dans le cas des tenseurs.

Pour répondre à votre dernière question: \ begin {equation} {\ Lambda_j} ^ i: = {\ left (\ Lambda ^ {T} \ right) ^ j} _i = {\ Lambda ^ i} _j \ end {equation}