¿Cómo desenredar estos operadores?
¿Cómo resuelvo $\beta_k$ en: $e^{\alpha_1 G_1 + \alpha_2 G_2 +\alpha_3 G_3 } =e^{\beta_1 G_1} e^{\beta_2 G_2} e^{\beta_3 G_3} e^{\beta_4 G_4}$? Tenga en cuenta que no hay$\alpha_4$ término.
( Además, ¿existen soluciones para este problema? Refiriéndose a la respuesta de MoisheKohan en Desenredar y reordenar operadores exponenciales de grupos de Lie )
aquí $G_k$ formar $\mathfrak{gl}_2(\mathbb{C})=\mathfrak{sl}_2(\mathbb{C})\oplus\mathbb{C}$ Álgebra de mentiras:
$[G_1,G_2]=0,\\ [G_1,G_3]=[G_3,G_2]=G_4,\\ [G_1,G_4]= [G_4,G_2]=G_3,\\ [G_3,G_4]=-2G_1+2G_2$
Estos tienen las representaciones: \ begin {ecuación} \ begin {alineado} G_1 & = \ begin {pmatrix} 1 & 0 \\ 0 & 0 \ end {pmatrix} \\ G_2 & = \ begin {pmatrix} 0 & 0 \\ 0 & 1 \ end {pmatrix } \\ G_3 & = \ begin {pmatrix} 0 & 1 \\ 1 & 0 \ end {pmatrix} \\ G_4 & = \ begin {pmatrix} 0 & 1 \\ - 1 & 0 \ end {pmatrix} \ end {alineado} \ end {ecuación}
Usando estas representaciones termino con una ecuación matricial: \ begin {ecuación} \ begin {alineado} \ begin {pmatrix} e ^ {\ frac {\ alpha_1 + \ alpha_2} {2}} \ left [\ cosh \ left (\ frac {1} {2} \ sqrt {( \ alpha_1- \ alpha_2) ^ 2 + 4 \ alpha_3 ^ 2} \ right) + \ frac {(\ alpha_1- \ alpha_2)} {\ sqrt {(\ alpha_1- \ alpha_2) ^ 2 + 4 \ alpha ^ 2_3} } \ sinh \ left (\ frac {1} {2} \ sqrt {(\ alpha_1- \ alpha_2) ^ 2 + 4 \ alpha_3 ^ 2} \ right) \ right] & \ frac {2e ^ {\ frac {\ alpha_1 + \ alpha_2} {2}} \ alpha_3 \ sinh \ left (\ frac {1} {2} \ sqrt {(\ alpha_1- \ alpha_2) ^ 2 + 4 \ alpha_3 ^ 2} \ right)} {\ sqrt { (\ alpha_1- \ alpha_2) ^ 2 + 4 \ alpha ^ 2_3}} \\\ frac {2e ^ {\ frac {\ alpha_1 + \ alpha_2} {2}} \ alpha_3 \ sinh \ left (\ frac {1} { 2} \ sqrt {(\ alpha_1- \ alpha_2) ^ 2 + 4 \ alpha_3 ^ 2} \ right)} {\ sqrt {(\ alpha_1- \ alpha_2) ^ 2 + 4 \ alpha ^ 2_3}} & e ^ {\ frac {\ alpha_1 + \ alpha_2} {2}} \ left [\ cosh \ left (\ frac {1} {2} \ sqrt {(\ alpha_1- \ alpha_2) ^ 2 + 4 \ alpha_3 ^ 2} \ right) - \ frac {(\ alpha_1- \ alpha_2)} {\ sqrt {(\ alpha_1- \ alpha_2) ^ 2 + 4 \ alpha ^ 2_3}} \ sinh \ left (\ frac {1} {2} \ sqrt {(\ alpha_1- \ alpha_2) ^ 2 + 4 \ alpha_3 ^ 2} \ right) \ right] \ end {pmatrix} & = LHS \ end {alineado} \ end {ecuación}
y \ begin {ecuación} \ begin {align} RHS & = \ begin {pmatrix} e ^ {\ beta_1} \ left (\ cos \ beta_4 \ cosh \ beta_3- \ sin \ beta_4 \ sinh \ beta_3 \ right) & e ^ {\ beta_1} \ left (\ sin \ beta_4 \ cosh \ beta_3 + \ cos \ beta_4 \ sinh \ beta_3 \ right) \\ e ^ {\ beta_2} \ left (- \ sin \ beta_4 \ cosh \ beta_3 + \ cos \ beta_4 \ sinh \ beta_3 \ right) & e ^ {\ beta_2} \ left (\ cos \ beta_4 \ cosh \ beta_3 + \ sin \ beta_4 \ sinh \ beta_3 \ right) \ end {pmatrix} \ end {alineado} \ end {ecuación}
Respuestas
Solo escribo esto para evitar una guirnalda de comentarios de empujar y parar, y para recordarle el método estándar. El ejercicio estándar que puede haber cubierto en la física de espín 1/2 a través de matrices de Pauli es el siguiente.
Primero limpie sus fórmulas y parámetros que parecen abrumarlo por completo. $$ G_3=\sigma_1; ~~G_4=i\sigma_2; ~~2G_1=\sigma_3+ I; ~~2G_2=I-\sigma_3; $$ Por tanto, es obvio que $G_1+G_2$ está en el centro de su álgebra de Lie, la matriz de identidad de 2x2, y los factores fuera del problema: debe eliminarse con extremo prejuicio.
Los tres elementos restantes del álgebra de mentira no tienen rastro, por lo que los elementos de grupo de $sl(2)$ahora mapee a un exponencial de una matriz 2x2 sin trazas. Es decir, $$ e^{(\alpha_1 + \alpha_2)/2} e^{(\alpha_1-\alpha_2) \sigma_3/2 + \alpha_3 \sigma_1 } =e^{(\beta_1 +\beta_2)/2} e^{(\beta_1 -\beta_2)\sigma_3/2} e^{\beta_3 \sigma_1} e^{i\beta_4 \sigma_2} . $$ Es decir, después de apreciar eso $\alpha_1+\alpha_2=\beta_1+\beta_2$, un α y un β son redundantes y pueden eliminarse. Haga eso, introduciendo variables primarias para las medias diferencias, para resolver $$ e^{\alpha' \sigma_3 + \alpha_3 \sigma_1 } = e^{\beta' \sigma_3} e^{\beta_3 \sigma_1} e^{i\beta_4 \sigma_2} . $$ Ahora, dada la expansión de la piedra angular del vector de Pauli aducida en el enlace WP proporcionado, realice la multiplicación en el RHS y compárelo con la expansión del LHS. Una combinación de los 3 βs restantes se limitará a cero: en particular, el coeficiente de$\sigma_2$, en el RHS, que está ausente en el LHS - ¿ves por qué? Entonces, solo hay dos β s para resolver para dos α s.
Si yo fuera usted, consideraría que mis dos α s restantes son pura imaginación, por lo que el LHS es un elemento de grupo de su (2) ; y$\beta_4$ real, mientras $\beta_3$ y $\beta'$imaginario puro, por lo que simplemente compone tres elementos de su (2) a la derecha, tres matrices unitarias de 2x2, en una matriz unitaria restringida en el LHS.
Permítanme registrar la respuesta basada en mis comentarios sin entrar en detalles:
Sobre los números complejos, este problema no tiene solución para los valores generales de $\alpha_1, \alpha_2, \alpha_3$.
Para valores "genéricos" de $\alpha_1, \alpha_2, \alpha_3$el problema sí tiene solución y, en principio, incluso existe un algoritmo para encontrar una. Aquí "genérico" significa: existe una subvariedad analítica compleja$A\subset {\mathbb C}^3$ (con complemento no vacío) tal que mientras $(\alpha_1, \alpha_2, \alpha_3)\notin A$, hay una solucion. Aún más: existe un sistema de ecuaciones polinomiales$P(M)=0$ (con coeficientes complejos) sobre complejos $2\times 2$ matrices $M$ tal que si $M$ satisface $P(M)\ne 0$, entonces puedes encontrar tu $\beta_1,...,\beta_4\in {\mathbb C}$ tal que $$ M= \exp(\beta_1 G_1)... \exp(\beta_4 G_4). $$ Una vez más, uno en principio puede escribir la ecuación $P$ explícitamente, pero no voy a hacer esto (ni siquiera preguntar).
La respuesta es bastante diferente si considera los coeficientes reales:
Para cada matriz real invertible de 2 por 2 $M$ existen números reales $\beta_1,...,\beta_4\in {\mathbb R}$ tal que $$ M= \exp(\beta_1 G_1)... \exp(\beta_4 G_4). $$
La clave de la demostración es considerar las transformaciones lineales-fraccionales $$ \gamma: z\mapsto \frac{az+b}{cd +d}, z\in {\mathbb C} $$ correspondiente a matrices (con coeficientes reales) $$ \left[\begin{array}{cc} a&b\\ c&d\end{array}\right] $$ satisfactorio $ad-bc=1$. Los mapas$\gamma$ enviar el semiplano superior complejo $U=\{z: Im(z)>0\}$ consigo mismo y preservar la métrica hiperbólica en $U$. Las transformaciones lineales-fraccionales$\gamma_1, \gamma_3$ correspondiente a las matrices $\exp(\beta_1 G_1), \exp(\beta_3 G_3)$son hiperbólicos , mientras que$\gamma_4$ correspondiente a la matriz $\exp(\beta_4 G_4)$es elíptica . Cada transformación fraccional lineal hiperbólica$\gamma$ de $U$conserva una geodésica hiperbólica $L_\gamma\subset U$ y actúa sobre $L_\gamma$como una traducción intrínseca. Esta geodésica se llama eje de$\gamma$. En contraste, una transformación elíptica lineal-fraccional tiene un punto fijo único en$U$. (La transformación$\gamma_4$ arreglará el punto $i\in U$.)
Hay muchos lugares donde se habla de este personal, por ejemplo
Anderson, James W. , Geometría hiperbólica, Serie de matemáticas de pregrado de Springer. Londres: Springer (ISBN 1-85233-934-9 / pbk). xi, 276 pág. (2005). ZBL1077.51008 .
Ahora, la propiedad clave que $\gamma_1, \gamma_3$ satisfacer es que sus ejes se cruzan en $U$. El uso de este verifica que para cualquier par de puntos$z, w\in U$ hay parámetros (reales) $\beta_1, \beta_3$ tal que $$ \gamma_1 \gamma_3(z)=w. $$ (Por el contrario, esta propiedad de existencia falla si los ejes no se cruzan). $\gamma_1, \gamma_3$ equivale principalmente a calcular el punto de intersección (en $U$) entre dos círculos en el plano complejo, por lo que se puede hacer de forma constructiva. Estos círculos (más precisamente, las intersecciones de los círculos con$U$) son ciertas órbitas de grupos de 1 parámetro de transformaciones fraccionarias lineales que contienen$\gamma_1, \gamma_3$.
Usando esto, uno verifica que para cada transformación lineal-fraccional $\gamma$, hay parámetros (reales) $\beta_1, \beta_3, \beta_4$ tal que $$ \gamma= \gamma_1 \gamma_3 \gamma_4. $$ Es decir, considere $w=\gamma(i)$ y encontrar $\gamma_1, \gamma_3$ tal que $$ \gamma_1 \gamma_3(i)=w. $$ Entonces $\gamma_3^{-1}\gamma_1^{-1}\gamma$ Arreglará $i$ y, por tanto, será igual $\gamma_4$ por algún valor de $\beta_4$.
De esto, se concluye que para cada matriz real $M\in GL(2, {\mathbb R})$ hay parámetros reales $\beta_1,...,\beta_4\in {\mathbb R}$ tal que $$ M= \exp(\beta_1 G_1)... \exp(\beta_4 G_4). $$ Cada uno de los pasos de este argumento no es difícil, pero requiere una prueba y no intentaré escribir una.