Est-il possible de trouver une matrice orthogonale $V\in M_n(\Bbb R)$ st $A=VDV^T$ avec une colonne non proportionnelle à une colonne de $U$?
Laisser $A\in M_n(\Bbb R)$ être une matrice symétrique avec (strictement) moins de $n$valeurs propres distinctes. Depuis$A$ est diagonalisable, on peut l'écrire comme $A=UDU^T$ où $U\in M_n(\Bbb R)$ est orthogonal et $D\in M_n(\Bbb R)$ est en diagonale.
Question:
Est-il possible de trouver une matrice orthogonale $V\in M_n(\Bbb R)$ st $A=VDV^T$ à condition qu'au moins une colonne de $V$ n'est proportionnel à aucune colonne de $U$?
Mes pensées:
Je pense qu'il y a moins de $n$ des valeurs propres distinctes garantissent qu'il est possible de trouver $V$, sinon, ce serait impossible.
Puisqu'il y a moins de $n$ valeurs propres distinctes, il y a un espace propre $E_{\lambda'}$ correspondant à la valeur propre $\lambda'$ st $\dim\left(E_{\lambda'}\right)=k\geqslant 2$.
Laisser $\{e_1,\ldots,e_k\}$ être une base orthonormée pour l'espace propre $E_{\lambda'}$ et observons un plan dans $\Bbb R^n$ couvert par, disons, $M=\operatorname{span}\{e_1,e_2\}$.
Laisser $f_1=\frac{e_1+e_2}{\left\|e_1+e_2\right\|}$. ensuite$f_2\in M$ est un autre vecteur unitaire (dans le même plan) st $f_1\perp f_2$.
En fait, nous pourrions appliquer Gramm-Schmidt à une base arbitraire écrite comme$\{\alpha e_1+\beta e_2,\gamma e_1+\delta e_2\},\alpha,\beta,\gamma,\delta\in\Bbb R$.
Je pensais que je pourrais aussi atteindre le même résultat en tournant $e_1$ et $e_2$ dans l'avion $M$ pour un certain angle $\varphi\ne k\pi,k\in\Bbb Z$.
Si cette partie de ma déclaration tient, alors, bien sûr, $\{f_1,f_2,e_3,\ldots,e_k\}$ est également une base orthonormée pour $M$. Je crois que cela pourrait tenir inductivement pour tout$M\leqslant E_{\lambda'}$, où $2\leqslant\dim M\leqslant\dim E_{\lambda'}$.
Puis-je demander une vérification de la déclaration et des conseils sur la façon de (dé) prouver de manière concise?
Merci d'avance!
Réponses
La réponse est oui.
Je recommande l'approche suivante. Tout d'abord, notez que$$ A = VDV^T = UDU^T \implies\\ VDV^T = UDU^T \implies\\ U^TVDV^TU = U^TUDU^TU \implies\\ (U^TV) D(U^TV)^T = D. $$ Dans cet esprit, laissez $W$ désignent la matrice orthogonale $W = U^TV$. Nous avons$$ WDW^T = D \implies WD = DW. $$ En d'autres termes, $W$ est une matrice orthogonale pour laquelle $WD = DW$. Gardez à l'esprit qu'une fois que nous avons$W$, nous avons $W = U^TV \implies V = UW$.
Maintenant, $A$a une valeur propre répétée; appelez cette valeur propre$\lambda$. Sans perte de généralité, supposons que$\lambda$ vient en premier parmi les entrées diagonales de $D$, et écris $$ D = \pmatrix{\lambda I_k & 0\\0 & D'} $$ où $I_k$ est une taille $k$ matrice d'identité (avec $k \geq 2$) et $D'$est également diagonale. Je prétends que si$W_1$est un $k \times k$ matrice orthogonale an $W_2$ est en diagonale avec $\pm1$'s, puis la matrice de blocs $$ W = \pmatrix{W_1 & 0\\0 & W_2} $$ sera orthogonal et satisfera $WD = DW$. Précisons que pour notre choix de$W$, $W_1$ n'a pas d'entrées nulles.
Maintenant, notez que les entrées de $W$ sont les produits scalaires des colonnes de $U$ avec des colonnes de $V$. Dans cet esprit, concluez que parce que la première colonne de$W$ a $k \geq 2$ entrées non nulles, la première colonne de $V$est pas un multiple de l' une des colonnes de$U$.