Donné un $2\times 2$ matrice $A$, deux valeurs propres uniques garantissent-elles que $A$ est diagonisable?
Cette question concerne un séminaire sur lequel j'ai travaillé, donc je ne souhaite pas divulguer toute la question, mais simplement demander comment cela serait géré en théorie.
$A = \begin{bmatrix}a & b \\ c & d \end{bmatrix}$ $Q=(\lambda I - A) = \begin{bmatrix}\lambda - a & -b \\ -c & \lambda - d \end{bmatrix}$
On veut ensuite trouver les valeurs propres de $A$, qui répond à la résolution $\det(Q)=0$. Ma question est, étant donné que nous aurions deux valeurs propres uniques, cela signifie-t-il que nous sommes$A$est diagonalisable? J'ai seulement trouvé un théorème qui dit que si nous avons deux vecteurs propres distincts pour un$2\times 2$ matrice $A$, puis $A$ est diagonalisable ...
Une aide serait très appréciée!
Réponses
Si tu as $2$ valeurs propres uniques, cela signifie que votre polynôme caractéristique ressemblera à ceci: $(λ-a)(λ-b)$, où $a$ et $b$sont vos valeurs propres.
Or une matrice est diagonisable si pour chacune de ses valeurs propres la multiplicité algébrique est égale à la multiplicité géométrique.
Dans notre cas, vous avez une multiplicité algébrique de$1$ (pour chaque valeur propre), et donc leur multiplicité géométrique est également égale à $1$ ($0<\text{geometric multiplicity} \leq \text{algebraic multiplicity}$) ainsi la matrice est diagonisable.
Donc pour un général$n\times n$ matrice si vous avez $n$ valeurs propres uniques, il est diagonisable.
Si $A$ est un $n \times n$ matrice dont les valeurs propres sont distinctes, il existe des vecteurs non nuls $V_i$, $1 \le i \le n$, avec
$AV_i = \mu_i V_i \tag 1$
la $\mu_i$ étant les valeurs propres distinctes de $A$. Il est bien connu que les vecteurs propres associés à des valeurs propres distinctes sont linéairement indépendants; donc la matrice
$S = [V_1 \; V_2 \; \ldots \; V_n ] \tag 2$
est non singulier et donc inversible, il existe donc un $n \times n$ matrice $S^{-1}$ avec
$S^{-1}S = SS^{-1} = I; \tag 3$
également,
$AS = [AV_1 \; AV_2 \; \ldots \; AV_n ] = [\mu_1 V_1 \; \mu_2 V_2 \; \ldots \; \mu_n V_n]; \tag 4$
Donc
$S^{-1}AS = S^{-1} [\mu_1 V_1 \; \mu_2 V_2 \; \ldots \; \mu_n V_n] = [\mu_1 S^{-1} V_1 \; \mu_2 S^{-1} V_2 \; \ldots \; \mu_n S^{-1} V_n]; \tag 5$
maintenant en accord avec (2) et (3),
$S^{-1}S = S^{-1} [V_1 \; V_2 \; \ldots \; V_n ] = [S^{-1} V_1 \; S^{-1} V_2 \; \ldots \; S^{-1} V_n ] = I, \tag 6$
ce qui montre que chacun $S^{-1} V_i$ est le vecteur colonne dont $i$-th entrée est égale à $1$ avec tous les autres éléments $0$; en incorporant cette observation dans (5) on obtient
$S^{-1}AS = \text{diag}(\mu_1, \; \mu_2, \; \ldots, \; \mu_n), \tag 7$
et on trouve ainsi que $A$ est diagonalisé par $S$. $OE \Delta$.