Dado um $2\times 2$ matriz $A$, dois autovalores únicos garantem que $A$ é diagonizável?

Dec 07 2020

Esta questão se refere a um seminário em que estou trabalhando, portanto, não desejo divulgar toda a questão, mas apenas perguntar como isso seria tratado em teoria.

$A = \begin{bmatrix}a & b \\ c & d \end{bmatrix}$ $Q=(\lambda I - A) = \begin{bmatrix}\lambda - a & -b \\ -c & \lambda - d \end{bmatrix}$

Queremos então encontrar os autovalores de $A$, que responde à resolução $\det(Q)=0$. Minha pergunta é, dado que obteríamos dois autovalores únicos, isso significa que temos a garantia de que a matriz$A$é diagonalizável? Eu só encontrei um teorema que diz se temos dois autovetores distintos para um$2\times 2$ matriz $A$, então $A$ é diagonalizável ...

Ajuda seria muito apreciada!

Respostas

NirF Dec 06 2020 at 23:39

Se você tem $2$ autovalores únicos, isso significa que seu polinômio característico será semelhante a este: $(λ-a)(λ-b)$, Onde $a$ e $b$são seus autovalores.
Agora, uma matriz é diagonizável se para cada um de seus autovalores a multiplicidade algébrica é igual à multiplicidade geométrica.
No nosso caso, você tem uma multiplicidade algébrica de$1$ (para cada autovalor), e, portanto, sua multiplicidade geométrica também é igual a $1$ ($0<\text{geometric multiplicity} \leq \text{algebraic multiplicity}$), portanto, a matriz é diagonizável.
Então, para um general$n\times n$ matriz se você tiver $n$ valores próprios únicos, é diagonizável.

2 RobertLewis Dec 07 2020 at 00:56

E se $A$ é um $n \times n$ matriz cujos autovalores são distintos, existem vetores diferentes de zero $V_i$, $1 \le i \le n$, com

$AV_i = \mu_i V_i \tag 1$

a $\mu_i$ sendo os autovalores distintos de $A$. É bem conhecido que os autovetores associados a autovalores distintos são linearmente independentes; assim a matriz

$S = [V_1 \; V_2 \; \ldots \; V_n ] \tag 2$

não é singular e, portanto, invertível, então existe um $n \times n$ matriz $S^{-1}$ com

$S^{-1}S = SS^{-1} = I; \tag 3$

Além disso,

$AS = [AV_1 \; AV_2 \; \ldots \; AV_n ] = [\mu_1 V_1 \; \mu_2 V_2 \; \ldots \; \mu_n V_n]; \tag 4$

portanto

$S^{-1}AS = S^{-1} [\mu_1 V_1 \; \mu_2 V_2 \; \ldots \; \mu_n V_n] = [\mu_1 S^{-1} V_1 \; \mu_2 S^{-1} V_2 \; \ldots \; \mu_n S^{-1} V_n]; \tag 5$

agora de acordo com (2) e (3),

$S^{-1}S = S^{-1} [V_1 \; V_2 \; \ldots \; V_n ] = [S^{-1} V_1 \; S^{-1} V_2 \; \ldots \; S^{-1} V_n ] = I, \tag 6$

o que mostra que cada $S^{-1} V_i$ é o vetor coluna cujo $i$-ésima entrada é igual a $1$ com todos os outros elementos $0$; incorporando esta observação em (5), obtemos

$S^{-1}AS = \text{diag}(\mu_1, \; \mu_2, \; \ldots, \; \mu_n), \tag 7$

e assim descobrimos que $A$ é diagonalizado por $S$. $OE \Delta$.