Dado um $2\times 2$ matriz $A$, dois autovalores únicos garantem que $A$ é diagonizável?
Esta questão se refere a um seminário em que estou trabalhando, portanto, não desejo divulgar toda a questão, mas apenas perguntar como isso seria tratado em teoria.
$A = \begin{bmatrix}a & b \\ c & d \end{bmatrix}$ $Q=(\lambda I - A) = \begin{bmatrix}\lambda - a & -b \\ -c & \lambda - d \end{bmatrix}$
Queremos então encontrar os autovalores de $A$, que responde à resolução $\det(Q)=0$. Minha pergunta é, dado que obteríamos dois autovalores únicos, isso significa que temos a garantia de que a matriz$A$é diagonalizável? Eu só encontrei um teorema que diz se temos dois autovetores distintos para um$2\times 2$ matriz $A$, então $A$ é diagonalizável ...
Ajuda seria muito apreciada!
Respostas
Se você tem $2$ autovalores únicos, isso significa que seu polinômio característico será semelhante a este: $(λ-a)(λ-b)$, Onde $a$ e $b$são seus autovalores.
Agora, uma matriz é diagonizável se para cada um de seus autovalores a multiplicidade algébrica é igual à multiplicidade geométrica.
No nosso caso, você tem uma multiplicidade algébrica de$1$ (para cada autovalor), e, portanto, sua multiplicidade geométrica também é igual a $1$ ($0<\text{geometric multiplicity} \leq \text{algebraic multiplicity}$), portanto, a matriz é diagonizável.
Então, para um general$n\times n$ matriz se você tiver $n$ valores próprios únicos, é diagonizável.
E se $A$ é um $n \times n$ matriz cujos autovalores são distintos, existem vetores diferentes de zero $V_i$, $1 \le i \le n$, com
$AV_i = \mu_i V_i \tag 1$
a $\mu_i$ sendo os autovalores distintos de $A$. É bem conhecido que os autovetores associados a autovalores distintos são linearmente independentes; assim a matriz
$S = [V_1 \; V_2 \; \ldots \; V_n ] \tag 2$
não é singular e, portanto, invertível, então existe um $n \times n$ matriz $S^{-1}$ com
$S^{-1}S = SS^{-1} = I; \tag 3$
Além disso,
$AS = [AV_1 \; AV_2 \; \ldots \; AV_n ] = [\mu_1 V_1 \; \mu_2 V_2 \; \ldots \; \mu_n V_n]; \tag 4$
portanto
$S^{-1}AS = S^{-1} [\mu_1 V_1 \; \mu_2 V_2 \; \ldots \; \mu_n V_n] = [\mu_1 S^{-1} V_1 \; \mu_2 S^{-1} V_2 \; \ldots \; \mu_n S^{-1} V_n]; \tag 5$
agora de acordo com (2) e (3),
$S^{-1}S = S^{-1} [V_1 \; V_2 \; \ldots \; V_n ] = [S^{-1} V_1 \; S^{-1} V_2 \; \ldots \; S^{-1} V_n ] = I, \tag 6$
o que mostra que cada $S^{-1} V_i$ é o vetor coluna cujo $i$-ésima entrada é igual a $1$ com todos os outros elementos $0$; incorporando esta observação em (5), obtemos
$S^{-1}AS = \text{diag}(\mu_1, \; \mu_2, \; \ldots, \; \mu_n), \tag 7$
e assim descobrimos que $A$ é diagonalizado por $S$. $OE \Delta$.