¿Es posible encontrar una matriz ortogonal? $V\in M_n(\Bbb R)$ S t $A=VDV^T$ con una columna no proporcional a ninguna columna de $U$?

Aug 20 2020

Dejar $A\in M_n(\Bbb R)$ ser una matriz simétrica con (estrictamente) menos de $n$valores propios distintos. Ya que$A$ es diagonalizable, podemos escribirlo como $A=UDU^T$ dónde $U\in M_n(\Bbb R)$ es ortogonal y $D\in M_n(\Bbb R)$ es diagonal.

Pregunta:

¿Es posible encontrar una matriz ortogonal? $V\in M_n(\Bbb R)$ S t $A=VDV^T$ con la condición de que al menos una columna de $V$ no es proporcional a ninguna columna de $U$?


Mis pensamientos:

Creo que el hecho de que haya menos de $n$ valores propios distintos garantizan que es posible encontrar tales $V$, de lo contrario, sería imposible.

Dado que hay menos de $n$ valores propios distintos, hay un espacio propio $E_{\lambda'}$ correspondiente al valor propio $\lambda'$ S t $\dim\left(E_{\lambda'}\right)=k\geqslant 2$.

Dejar $\{e_1,\ldots,e_k\}$ ser una base ortonormal para el eigenspace $E_{\lambda'}$ y observemos un plano en $\Bbb R^n$ abarcado por, digamos, $M=\operatorname{span}\{e_1,e_2\}$.

Dejar $f_1=\frac{e_1+e_2}{\left\|e_1+e_2\right\|}$. Luego$f_2\in M$ es otro vector unitario (en el mismo plano) st $f_1\perp f_2$.

En realidad, podríamos aplicar Gramm-Schmidt a una base arbitraria escrita como$\{\alpha e_1+\beta e_2,\gamma e_1+\delta e_2\},\alpha,\beta,\gamma,\delta\in\Bbb R$.

Pensé que también podría alcanzar el mismo resultado girando $e_1$ y $e_2$ en el avión $M$ por algún ángulo $\varphi\ne k\pi,k\in\Bbb Z$.

Si esta parte de mi declaración es válida, entonces, por supuesto, $\{f_1,f_2,e_3,\ldots,e_k\}$ es también una base ortonormal para $M$. Creo que esto podría aplicarse inductivamente a cualquier$M\leqslant E_{\lambda'}$, dónde $2\leqslant\dim M\leqslant\dim E_{\lambda'}$.


¿Puedo solicitar la verificación de la declaración y consejos sobre cómo (des) probar de manera concisa?

¡Gracias de antemano!

Respuestas

3 BenGrossmann Aug 20 2020 at 04:39

La respuesta es sí.

Recomiendo el siguiente enfoque. Primero, tenga en cuenta que$$ A = VDV^T = UDU^T \implies\\ VDV^T = UDU^T \implies\\ U^TVDV^TU = U^TUDU^TU \implies\\ (U^TV) D(U^TV)^T = D. $$ Con eso en mente, deja $W$ denotar la matriz ortogonal $W = U^TV$. Tenemos$$ WDW^T = D \implies WD = DW. $$ En otras palabras, $W$ es una matriz ortogonal para la cual $WD = DW$. Tenga en cuenta que una vez que tengamos$W$, tenemos $W = U^TV \implies V = UW$.

Ahora, $A$tiene un valor propio repetido; llamar a este valor propio$\lambda$. Sin pérdida de generalidad, supongamos que$\lambda$ viene primero entre las entradas diagonales de $D$, y escribe $$ D = \pmatrix{\lambda I_k & 0\\0 & D'} $$ dónde $I_k$ es un tamaño $k$ matriz de identidad (con $k \geq 2$) y $D'$también es diagonal. Yo digo que si$W_1$es cualquiera $k \times k$ matriz ortogonal un $W_2$ es diagonal con $\pm1$s, luego la matriz de bloques $$ W = \pmatrix{W_1 & 0\\0 & W_2} $$ será ortogonal y satisfará $WD = DW$. Estipulemos que para nuestra elección de$W$, $W_1$ no tiene entradas cero.

Ahora, tenga en cuenta que las entradas de $W$ son los productos punto de columnas de $U$ con columnas de $V$. Con eso en mente, concluya que debido a que la primera columna de$W$ tiene $k \geq 2$ entradas distintas de cero, la primera columna de $V$no es un múltiplo de ninguna de las columnas de$U$.