Ordenação de índices em $\Lambda^\mu_{\space\space\nu}$ [duplicado]

Dec 07 2020

Estou tendo algumas perguntas sobre a ordem dos índices que estão no andar de cima e no andar de baixo. Vamos dar um exemplo:$\Lambda^\mu_{\space\space\nu}$ é uma transformação de Lorentz se a seguinte equação for satisfeita: $$ \Lambda^\mu_{\space\space\sigma} \eta^{\sigma \tau}\Lambda^\nu_{\space\space\tau}=\eta^{\mu \nu}. $$ Na notação de matriz, isso significa $$ \Lambda \eta^{-1}\Lambda^T =\eta^{-1}. $$

Minha pergunta é: por que devemos colocar$\mu$ antes $\nu$ na expressão $\Lambda^\mu_{\space\space\nu}$? (em vez de apenas verticalmente acima dele)

Eu pensei sobre isso por um momento e tive as seguintes idéias:

  1. Colocando $\mu$ antes $\nu$nos lembra de escrever a notação é a ordem usual de multiplicação de matrizes. Normalmente nós escrevemos$\Lambda^\mu_{\space\space\nu} x^\nu$ ao invés de $ x^\nu\Lambda^\mu_{\space\space\nu}$, porque nós gostaríamos $\nu$é estar "mais perto". Isso corresponde à nossa ordem de escrever uma matriz multiplicando um vetor (contravariante)$\Lambda \mathbf x$.
  2. Existem exceções ao ponto 1, por exemplo $\Lambda^\mu_{\space\space\sigma} \eta^{\sigma \tau}\Lambda^\nu_{\space\space\tau}$, porque aqui estamos transpondo a segunda matriz de Lorentz.
  3. No entanto, se tivermos mais de dois índices, as idéias acima fazem pouco sentido. Se temos uma expressão como$A^{\mu_1\mu_2 \ldots \mu_k}_{\nu_1 \nu_2 \ldots \nu_l} x^{\nu_1}\ldots x^{\nu_n}y_{\mu_1}\ldots y_{\mu_n}$, quem sabe qual é a ordem "correta" dos índices de $a$ e $x,y$? Matematicamente, não parece haver uma razão para uma ordem particular, porque um produto tensorial de espaços vetoriais não depende da ordem (até o isomorfismo) em que tomamos o produto.

As observações acima estão corretas? Existem outros motivos para o pedido?

Finalmente, veremos algo como $$ \Lambda^{\space\space\mu}_{\sigma}? $$ ou seja, descer antes de subir.

Respostas

4 pglpm Dec 07 2020 at 20:39

Aqui está uma foto mais completa. Passo a passo:

Um sistema de coordenadas $x$ pode ser visto como um mapa múltiplo do espaço-tempo $M$ para $\mathbf{R}^4$. Isso é,$$x \colon M \to \mathbf{R}^4\ ,$$ de modo a $\bigl(x^0(P), \dotsc, x^3(P)\bigr)$ são as coordenadas do ponto múltiplo (evento) $P$.

Quando temos dois sistemas de coordenadas diferentes $x$ e $y$, consideramos o mapa de uma cópia de $\mathbf{R}^4$ para o outro, indo $\mathbf{R}^4\xrightarrow{y^{-1}}M\xrightarrow{x}\mathbf{R}^4$: $$x\circ y^{-1} \colon \mathbf{R}^4 \to \mathbf{R}^4 \ ,$$ essa é a mudança de coordenadas.

Um sistema de coordenadas $x$ também tem um mapa tangente associado $$x_P' \colon \mathrm{T}_PM \to \mathrm{T}_{x(P)}\mathbf{R}^4 \equiv \mathbf{R}^4 \ ,$$onde a última equivalência é um isomorfismo canônico. Este é o mapa através do qual representamos um vetor tangente de$M$ como um quádruplo de números reais.

Além disso, o mapa de mudança de coordenadas tem um mapa tangente associado: $$(x \circ y^{-1})_{y(P)}' \colon \mathrm{T}_{y(P)}\mathbf{R}^4 \to \mathrm{T}_{x(P)}\mathbf{R}^4 \ ,$$ que dá o quádruplo de números reais associados com $y_P'$ para aquele associado com $x_P'$. E é isso que$\Lambda$ na verdade é: pega os componentes de um vetor tangente em um sistema de coordenadas e produz os componentes no outro: $\Lambda_{y(P)} := (x \circ y^{-1})_{y(P)}'$.

Este mapa também pode ser considerado um assim chamado "tensor de dois pontos": um objeto que pertence ao produto tensorial do espaço tangente em um ponto de uma variedade com o espaço tangente em um ponto de uma variedade diferente, ou em um ponto diferente do mesmo manifold. (Uma curiosidade: tensores de dois pontos foram, por exemplo, considerados por Einstein em sua formulação teleparalela da relatividade geral.)

Uma vez que este mapa tangente mapeia um vetor $\pmb{u}$ (dentro $\mathrm{T}_{y(P)}\mathbf{R}^4$) para outro vetor $\pmb{v}$ (dentro $\mathrm{T}_{x(P)}\mathbf{R}^4$), podemos escrever sua operação com a notação usual de "ação à direita": $$\pmb{v} = \Lambda\pmb{u}$$típico da álgebra linear (e álgebra linear é exatamente o que estamos fazendo!). Interpretada como contração tensorial, estamos contraindo com$\Lambda$slot tensor de em seu lado direito.

Essa é a razão pela qual tradicionalmente o índice mais baixo (que se contrai com vetores) fica à direita.

Isso é apenas para lhe dar uma imagem completa e o motivo, mas você não precisa se preocupar muito com isso. Se você está curioso sobre tensores de dois pontos e mais sobre isso, verifique por exemplo

  • Truesdell, Toupin: The Classical Field Theories (Springer 1960), Apêndice. Campos tensoriais .

E para mapas tangentes, sistemas de coordenadas e assim por diante, uma excelente referência é sempre

  • Choquet-Bruhat, DeWitt-Morette, Dillard-Bleick: Analysis, Manifolds and Physics. Parte I: Básico (ed. Rev. Elsevier 1996).

Nota adicional sobre o aumento ou redução dos índices de $\Lambda$

$\Lambda\colon \mathrm{T}_{y(P)}\mathbf{R}^4 \to \mathrm{T}_{x(P)}\mathbf{R}^4$é apenas um mapa linear não singular entre dois espaços vetoriais. Portanto, induz um mapa inverso$$\Lambda^{-1}\colon \mathrm{T}_{x(P)}\mathbf{R}^4 \to \mathrm{T}_{y(P)}\mathbf{R}^4$$ e também um mapa duplo (transpor) $$\Lambda^{\intercal} \colon \mathrm{T}^*_{x(P)}\mathbf{R}^{4} \to \mathrm{T}^*_{y(P)}\mathbf{R}^{4}$$do dual do alvo inicial ao dual do domínio inicial. E assim por diante.

Usando os mapas tangentes $x'$ e $y'$ (e seus duais), também podemos mapear objetos tensoriais mais gerais em $\mathrm{T}_PM$ para objetos em $\mathrm{T}_{x(p)}\mathbf{R}^4$ e $\mathrm{T}_{y(p)}\mathbf{R}^4$ - estes últimos serão os representantes coordenados daqueles em $\mathrm{T}_PM$. Isso também é verdadeiro para o tensor métrico ou seu inverso em$M$. Temos um proxy coordenado disso em$\mathrm{T}_{x(p)}\mathbf{R}^4$ (mais precisamente em $\mathrm{T}^*_{x(p)}\mathbf{R}^{4}\otimes\mathrm{T}^*_{x(p)}\mathbf{R}^{4}$) e outro em $\mathrm{T}_{y(p)}\mathbf{R}^4$.

O tensor de dois pontos $\Lambda$ tem uma perna covariante (esse é realmente o termo técnico) em $\mathrm{T}_{y(p)}\mathbf{R}^4$, uma vez que deve contrair vetores contravariantes ali, e uma perna contravariante em $\mathrm{T}_{y(p)}\mathbf{R}^4$, uma vez que deve "depositar" um vetor contravariante ali.

Podemos alterar o tipo de variação de cada perna. Por exemplo, podemos fazer a perna em$y(P)$ contravariante, contratando-o com o proxy métrico que fizemos em $\mathrm{T}_{y(p)}\mathbf{R}^4$. O resultado é um novo tensor de dois pontos ou mapa linear, que mapeia co vetores em$\mathrm{T}^*_{y(p)}\mathbf{R}^{4}$ para vetores em $\mathrm{T}_{x(p)}\mathbf{R}^{4}$. Esta é uma espécie de operação mista: estamos pegando um covetor no sistema de coordenadas$y$, contraindo-o com o tensor métrico inverso, e dando o vetor resultante no novo sistema de coordenadas $x$ (Eu pessoalmente acho que é melhor não misturar esses dois tipos diferentes de operações).

Se fizermos a perna em $y(P)$ contravariante e a perna em $x(P)$ covariante usando o tensor métrico proxy inverso em $y(P)$ e o tensor métrico em $x(P)$, então o resultado é $\Lambda^{-\intercal}$, o inverso da transposta de $\Lambda$. Mas poderíamos ter usado qualquer outra forma bilinear não singular em vez do tensor métrico para realizar esta operação. O que isso faz, de fato, é pegar um covetor no sistema de coordenadas$y$, transforme-o em um vetor por meio de alguma transformação, mude sua representação de coordenadas para o sistema $y$e, finalmente, transforme-o de volta em um covetor usando o inverso da transformação inicial (seja lá o que for).

1 AccidentalTaylorExpansion Dec 07 2020 at 19:29

A resposta simples é que não precisamos atribuir uma ordem aos índices em${\Lambda^\mu}_\nu$para fazer cálculos, mas é necessário se quisermos vê-los como matrizes. Acho que falo por muitas pessoas quando digo que a notação de matriz é um pouco mais fácil de ler / escrever. Mas nem sempre é claro como traduzir os dois e às vezes simplesmente não é possível. Pegue, por exemplo, o produto interno que você pode escrever como$$u\cdot v=u_\mu v^\mu=\mathbf u^T\mathbf v=\begin{pmatrix}u_1&u_2&u_3\end{pmatrix}\begin{pmatrix}v_1\\v_2\\v_3\end{pmatrix}.$$A partir deste exemplo, você pode argumentar que os índices superiores estão associados aos vetores de coluna e os índices inferiores aos vetores de linha. Você pode estar familiarizado com isso da mecânica quântica. Você tem kets que são vetores e sutiãs que comem vetores e cada um é representado por vetores coluna ou vetores linha, respectivamente. Vamos dar outro exemplo que reforça essa ideia.$$(A\mathbf v)^i={A^i}_jv^j=\begin{pmatrix}A_{11}&A_{12}\\A_{21}&A_{22}\end{pmatrix}\begin{pmatrix}v_1\\v_2\end{pmatrix}$$Mais uma vez, os índices superiores estão associados a 'coluna' e os índices inferiores estão associados a 'rowness'. O Matrix$A$ come um vetor (índice inferior $j$) e gera outro vetor (índice superior $i$) Agora, um contra-exemplo. A respeito$x^\mu g_{\mu\nu}y^\nu$? Nesse caso$g$tem dois índices mais baixos. Ele come dois vetores. Mas como representamos algo que come dois vetores? Existe um hack que você pode fazer. Você pode representá-lo como$$x^\mu g_{\mu\nu}y^\nu=\begin{pmatrix}x_1&x_2\end{pmatrix}\begin{pmatrix}g_{11}&g_{12}\\g_{21}&g_{22}\end{pmatrix}\begin{pmatrix}y_1\\y_2\end{pmatrix}$$ Observe que isso não faz justiça à natureza do $g$. É fundamentalmente algo que come dois vetores, mas é representado como algo que come um vetor e cospe outro. Isso é possível porque funcionais lineares (coisas que comem um vetor e cuspem um vetor) são duais para vetores. Eles podem ser transformados um no outro de forma intuitiva.

Então é aqui que eu convido você a soltar um pouco da ideia de expressões como $g_{\mu\nu}$matrizes 'sendo'. Às vezes, as expressões em notação de índice podem ser expressas como matrizes e vetores, o que é bom. Isso torna mais fácil ver o que você está fazendo. Mas geralmente eles não são iguais a essas matrizes. Sempre que você converter entre os dois, você só precisa ter certeza de que eles são consistentes. Você precisa ter certeza de somar os índices certos e obter a resposta certa. Quando você é capaz de escrever uma expressão no formulário$$A_{ij}B_{jk}v_k$$onde cada um desses índices pode ser superior ou inferior, então você pode escrevê-lo com segurança como multiplicação de matriz. Como você mencionou, só precisamos que os índices somados estejam próximos.

Então, como você representa algo como ${A^{\mu_1,\dots\mu_m}}_{\nu_1\dots\nu_n}x^{\nu_1}\dots x^{\nu_n}y_{\mu_1}\dots y_{\mu_m}$como multiplicação de matrizes? Eu não saberia!

TheoPhy Dec 07 2020 at 19:01

Se você tem $A^{\mu_1 \mu_2 \mu_3}$ você pode pensar nisso como uma matriz tridimensional, então você adiciona uma dimensão à ideia $A^{\mu_1 \mu_2}$como uma matriz. Você pode imaginar um novo conjunto de linhas que vão "dentro" da página. Você pode entender como a ordem é importante porque o primeiro índice$\mu_1$ está rotulando as linhas "padrão", a segunda as colunas e a terceira $\mu_3$está rotulando a linha "dentro da página". Então, se você trocar um dos índices, estará escolhendo um elemento diferente da matriz 3D. E essa ideia pode ser estendida a dimensões superiores.

Filippo Dec 07 2020 at 19:57

$\Lambda$é apenas uma matriz, não um tensor. O índice à esquerda denota a linha e o índice à direita denota a coluna. Posicionar um índice acima do outro é simplesmente prático para usar a soma de Einstein. Não há um significado mais profundo como no caso dos tensores.

Para responder à sua última pergunta: \ begin {equation} {\ Lambda_j} ^ i: = {\ left (\ Lambda ^ {T} \ right) ^ j} _i = {\ Lambda ^ i} _j \ end {equation}