Comment démêler ces opérateurs?
Comment résoudre pour $\beta_k$ dans: $e^{\alpha_1 G_1 + \alpha_2 G_2 +\alpha_3 G_3 } =e^{\beta_1 G_1} e^{\beta_2 G_2} e^{\beta_3 G_3} e^{\beta_4 G_4}$? Notez qu'il n'y a pas$\alpha_4$ terme.
( En outre, existe-t-il même des solutions pour ce problème? En se référant à la réponse de MoisheKohan à Disentangling and reordering operator exponentials from Lie groups )
Ici $G_k$ forme $\mathfrak{gl}_2(\mathbb{C})=\mathfrak{sl}_2(\mathbb{C})\oplus\mathbb{C}$ Algèbre de Lie:
$[G_1,G_2]=0,\\ [G_1,G_3]=[G_3,G_2]=G_4,\\ [G_1,G_4]= [G_4,G_2]=G_3,\\ [G_3,G_4]=-2G_1+2G_2$
Ceux-ci ont les représentations: \ begin {equation} \ begin {aligné} G_1 & = \ begin {pmatrix} 1 & 0 \\ 0 & 0 \ end {pmatrix} \\ G_2 & = \ begin {pmatrix} 0 & 0 \\ 0 & 1 \ end {pmatrix } \\ G_3 & = \ begin {pmatrix} 0 & 1 \\ 1 & 0 \ end {pmatrix} \\ G_4 & = \ begin {pmatrix} 0 & 1 \\ - 1 & 0 \ end {pmatrix} \ end {aligné} \ end {équation}
En utilisant ces représentations, je me retrouve avec une équation matricielle: \ begin {équation} \ begin {aligné} \ begin {pmatrix} e ^ {\ frac {\ alpha_1 + \ alpha_2} {2}} \ left [\ cosh \ left (\ frac {1} {2} \ sqrt {( \ alpha_1- \ alpha_2) ^ 2 + 4 \ alpha_3 ^ 2} \ right) + \ frac {(\ alpha_1- \ alpha_2)} {\ sqrt {(\ alpha_1- \ alpha_2) ^ 2 + 4 \ alpha ^ 2_3} } \ sinh \ left (\ frac {1} {2} \ sqrt {(\ alpha_1- \ alpha_2) ^ 2 + 4 \ alpha_3 ^ 2} \ right) \ right] & \ frac {2e ^ {\ frac {\ alpha_1 + \ alpha_2} {2}} \ alpha_3 \ sinh \ left (\ frac {1} {2} \ sqrt {(\ alpha_1- \ alpha_2) ^ 2 + 4 \ alpha_3 ^ 2} \ right)} {\ sqrt { (\ alpha_1- \ alpha_2) ^ 2 + 4 \ alpha ^ 2_3}} \\\ frac {2e ^ {\ frac {\ alpha_1 + \ alpha_2} {2}} \ alpha_3 \ sinh \ left (\ frac {1} { 2} \ sqrt {(\ alpha_1- \ alpha_2) ^ 2 + 4 \ alpha_3 ^ 2} \ right)} {\ sqrt {(\ alpha_1- \ alpha_2) ^ 2 + 4 \ alpha ^ 2_3}} & e ^ {\ frac {\ alpha_1 + \ alpha_2} {2}} \ left [\ cosh \ left (\ frac {1} {2} \ sqrt {(\ alpha_1- \ alpha_2) ^ 2 + 4 \ alpha_3 ^ 2} \ right) - \ frac {(\ alpha_1- \ alpha_2)} {\ sqrt {(\ alpha_1- \ alpha_2) ^ 2 + 4 \ alpha ^ 2_3}} \ sinh \ left (\ frac {1} {2} \ sqrt {(\ alpha_1- \ alpha_2) ^ 2 + 4 \ alpha_3 ^ 2} \ right) \ right] \ end {pmatrix} & = LHS \ end {aligné} \ end {équation}
et \ begin {équation} \ begin {aligné} RHS & = \ begin {pmatrix} e ^ {\ beta_1} \ left (\ cos \ beta_4 \ cosh \ beta_3- \ sin \ beta_4 \ sinh \ beta_3 \ right) & e ^ {\ beta_1} \ left (\ sin \ beta_4 \ cosh \ beta_3 + \ cos \ beta_4 \ sinh \ beta_3 \ right) \\ e ^ {\ beta_2} \ left (- \ sin \ beta_4 \ cosh \ beta_3 + \ cos \ beta_4 \ sinh \ beta_3 \ right) & e ^ {\ beta_2} \ left (\ cos \ beta_4 \ cosh \ beta_3 + \ sin \ beta_4 \ sinh \ beta_3 \ right) \ end {pmatrix} \ end {aligné} \ end {équation}
Réponses
J'écris ceci uniquement pour éviter une guirlande de commentaires de poussée et de parade, et pour vous rappeler la méthode standard. L'exercice standard que vous avez peut-être couvert dans la physique du spin 1/2 à travers les matrices de Pauli est le suivant.
Tout d' abord nettoyer vos formules et paramètres qui semblent vous submerger complètement. $$ G_3=\sigma_1; ~~G_4=i\sigma_2; ~~2G_1=\sigma_3+ I; ~~2G_2=I-\sigma_3; $$ Il est donc évident que $G_1+G_2$ est au centre de votre algèbre de Lie, de la matrice d'identité 2x2, et des facteurs hors du problème: il devrait être éliminé avec un préjugé extrême.
Les trois autres éléments d'algèbre de Lie sont sans trace, et donc les éléments de groupe de $sl(2)$maintenant mapper à une exponentielle d'une matrice 2x2 sans trace. C'est, $$ e^{(\alpha_1 + \alpha_2)/2} e^{(\alpha_1-\alpha_2) \sigma_3/2 + \alpha_3 \sigma_1 } =e^{(\beta_1 +\beta_2)/2} e^{(\beta_1 -\beta_2)\sigma_3/2} e^{\beta_3 \sigma_1} e^{i\beta_4 \sigma_2} . $$ C'est-à-dire, après avoir apprécié cela $\alpha_1+\alpha_2=\beta_1+\beta_2$, un α et un β sont redondants et peuvent être éliminés. Faites cela, en introduisant des variables amorcées pour les demi-différences, pour résoudre $$ e^{\alpha' \sigma_3 + \alpha_3 \sigma_1 } = e^{\beta' \sigma_3} e^{\beta_3 \sigma_1} e^{i\beta_4 \sigma_2} . $$ Maintenant, étant donné l'expansion de la pierre angulaire du vecteur Pauli présentée dans le lien WP fourni, effectuez la multiplication sur le RHS et assimilez-la à l'expansion du LHS. Une combinaison des 3 β s restants sera contrainte à zéro: en particulier le coefficient du$\sigma_2$, sur la RHS, qui est absente sur la LHS - voyez-vous pourquoi? Il n'y a donc que deux β s à résoudre pour deux α s.
Si j'étais vous, je prendrais mes deux α s restants pour un pur imaginaire, donc le LHS est un élément de groupe de su (2) ; et$\beta_4$ réel, tandis que $\beta_3$ et $\beta'$pur imaginaire, donc vous composez simplement trois éléments de su (2) sur la droite, trois matrices unitaires 2x2, à une matrice unitaire restreinte sur le LHS.
Laissez-moi simplement enregistrer la réponse en fonction de mes commentaires sans entrer dans les détails:
Sur les nombres complexes, ce problème n'a pas de solution pour les valeurs générales de $\alpha_1, \alpha_2, \alpha_3$.
Pour les valeurs "génériques" de $\alpha_1, \alpha_2, \alpha_3$le problème a une solution et, en principe, il existe même un algorithme pour en trouver une. Ici, «générique» signifie: il existe une sous-variété analytique complexe$A\subset {\mathbb C}^3$ (avec complément non vide) tel que tant que $(\alpha_1, \alpha_2, \alpha_3)\notin A$, il existe une solution. Plus encore: il existe un système d'équations polynomiales$P(M)=0$ (avec coefficients complexes) sur complexe $2\times 2$ matrices $M$ tel que si $M$ satisfait $P(M)\ne 0$, alors vous pouvez trouver votre $\beta_1,...,\beta_4\in {\mathbb C}$ tel que $$ M= \exp(\beta_1 G_1)... \exp(\beta_4 G_4). $$ Encore une fois, on peut en principe écrire l'équation $P$ explicitement, mais je ne le ferai pas (ne demandez même pas).
La réponse est tout à fait différente si vous considérez les coefficients réels:
Pour chaque matrice réelle inversible 2 par 2 $M$ il existe des nombres réels $\beta_1,...,\beta_4\in {\mathbb R}$ tel que $$ M= \exp(\beta_1 G_1)... \exp(\beta_4 G_4). $$
La clé de la preuve est de considérer les transformations linéaires-fractionnaires $$ \gamma: z\mapsto \frac{az+b}{cd +d}, z\in {\mathbb C} $$ correspondant à des matrices (avec des coefficients réels) $$ \left[\begin{array}{cc} a&b\\ c&d\end{array}\right] $$ satisfaisant $ad-bc=1$. Les cartes$\gamma$ envoyer le demi-plan supérieur complexe $U=\{z: Im(z)>0\}$ à lui-même et préserver la métrique hyperbolique sur $U$. Les transformations linéaires-fractionnaires$\gamma_1, \gamma_3$ correspondant aux matrices $\exp(\beta_1 G_1), \exp(\beta_3 G_3)$sont hyperboliques , tandis que$\gamma_4$ correspondant à la matrice $\exp(\beta_4 G_4)$est elliptique . Chaque transformation fractionnaire linéaire hyperbolique$\gamma$ de $U$préserve une géodésique hyperbolique $L_\gamma\subset U$ et agit sur $L_\gamma$comme traduction intrinsèque. Cette géodésique s'appelle l' axe de$\gamma$. En revanche, une transformation fractionnaire linéaire elliptique a un point fixe unique dans$U$. (La transformation$\gamma_4$ va fixer le point $i\in U$.)
Il y a de nombreux endroits où ce personnel est discuté, par exemple
Anderson, James W. , Géométrie hyperbolique, Série de mathématiques de premier cycle Springer. Londres: Springer (ISBN 1-85233-934-9 / pbk). xi, 276 p. (2005). ZBL1077.51008 .
Maintenant, la propriété clé qui $\gamma_1, \gamma_3$ satisfaire est que leurs axes se croisent en $U$. L'utilisation de celui-ci vérifie que pour toute paire de points$z, w\in U$ il y a des paramètres (réels) $\beta_1, \beta_3$ tel que $$ \gamma_1 \gamma_3(z)=w. $$ (En revanche, cette propriété d'existence échoue si les axes ne se croisent pas.) $\gamma_1, \gamma_3$ revient principalement à calculer le point d'intersection (en $U$) entre deux cercles dans le plan complexe, afin que cela puisse être fait de manière constructive. Ces cercles (plus précisément, les intersections des cercles avec$U$) sont certaines orbites de groupes à 1 paramètre de transformations fractionnaires linéaires contenant$\gamma_1, \gamma_3$.
En utilisant cela, on vérifie que pour chaque transformation linéaire-fractionnaire $\gamma$, il y a des paramètres (réels) $\beta_1, \beta_3, \beta_4$ tel que $$ \gamma= \gamma_1 \gamma_3 \gamma_4. $$ À savoir, considérez $w=\gamma(i)$ et trouve $\gamma_1, \gamma_3$ tel que $$ \gamma_1 \gamma_3(i)=w. $$ ensuite $\gamma_3^{-1}\gamma_1^{-1}\gamma$ réparera $i$ et, par conséquent, égalera $\gamma_4$ pour une valeur de $\beta_4$.
De là, on en conclut que pour toute matrice réelle $M\in GL(2, {\mathbb R})$ il y a de vrais paramètres $\beta_1,...,\beta_4\in {\mathbb R}$ tel que $$ M= \exp(\beta_1 G_1)... \exp(\beta_4 G_4). $$ Chacune des étapes de cet argument n'est pas difficile mais nécessite une preuve et je n'essaierai pas d'en écrire une.