Angenommen $2\times 2$ Matrix $A$, garantieren zwei eindeutige Eigenwerte, dass $A$ ist diagonisierbar?
Diese Frage bezieht sich auf ein Seminar, an dem ich gearbeitet habe. Daher möchte ich nicht die gesamte Frage offenlegen, sondern nur fragen, wie dies theoretisch behandelt werden würde.
$A = \begin{bmatrix}a & b \\ c & d \end{bmatrix}$ $Q=(\lambda I - A) = \begin{bmatrix}\lambda - a & -b \\ -c & \lambda - d \end{bmatrix}$
Wir wollen dann die Eigenwerte von finden $A$, die auf das Lösen reagiert $\det(Q)=0$. Meine Frage ist, angesichts der Tatsache, dass wir zwei eindeutige Eigenwerte erhalten würden, bedeutet dies, dass uns diese Matrix garantiert ist$A$ist diagonalisierbar? Ich habe nur einen Satz gefunden, der besagt, ob wir zwei verschiedene Eigenvektoren für a haben$2\times 2$ Matrix $A$, dann $A$ ist diagonalisierbar ...
Hilfe wäre sehr dankbar!
Antworten
Wenn Sie haben $2$ eindeutige Eigenwerte, dh Ihr charakteristisches Polynom sieht folgendermaßen aus: $(λ-a)(λ-b)$, wo $a$ und $b$sind deine Eigenwerte.
Nun ist eine Matrix diagonalisierbar, wenn für jeden ihrer Eigenwerte die algebraische Multiplizität gleich der geometrischen Multiplizität ist.
In unserem Fall haben Sie eine algebraische Vielzahl von$1$ (für jeden Eigenwert), und somit ist auch ihre geometrische Multiplizität gleich $1$ (($0<\text{geometric multiplicity} \leq \text{algebraic multiplicity}$) somit ist die Matrix diagonisierbar.
Also für einen General$n\times n$ Matrix, wenn Sie haben $n$ einzigartige Eigenwerte, es ist diagonisierbar.
Wenn $A$ ist ein $n \times n$ Matrix, deren Eigenwerte unterschiedlich sind, existieren Vektoren ungleich Null $V_i$, $1 \le i \le n$mit
$AV_i = \mu_i V_i \tag 1$
das $\mu_i$ sind die unterschiedlichen Eigenwerte von $A$. Es ist bekannt, dass die Eigenvektoren, die unterschiedlichen Eigenwerten zugeordnet sind, linear unabhängig sind; also die Matrix
$S = [V_1 \; V_2 \; \ldots \; V_n ] \tag 2$
ist nicht singulär und daher invertierbar, so dass es eine gibt $n \times n$ Matrix $S^{-1}$ mit
$S^{-1}S = SS^{-1} = I; \tag 3$
ebenfalls,
$AS = [AV_1 \; AV_2 \; \ldots \; AV_n ] = [\mu_1 V_1 \; \mu_2 V_2 \; \ldots \; \mu_n V_n]; \tag 4$
so
$S^{-1}AS = S^{-1} [\mu_1 V_1 \; \mu_2 V_2 \; \ldots \; \mu_n V_n] = [\mu_1 S^{-1} V_1 \; \mu_2 S^{-1} V_2 \; \ldots \; \mu_n S^{-1} V_n]; \tag 5$
jetzt in Übereinstimmung mit (2) und (3),
$S^{-1}S = S^{-1} [V_1 \; V_2 \; \ldots \; V_n ] = [S^{-1} V_1 \; S^{-1} V_2 \; \ldots \; S^{-1} V_n ] = I, \tag 6$
was zeigt, dass jeder $S^{-1} V_i$ ist der Spaltenvektor, dessen $i$-th Eintrag ist gleich $1$ mit allen anderen Elementen $0$;; Wenn wir diese Beobachtung in (5) aufnehmen, erhalten wir
$S^{-1}AS = \text{diag}(\mu_1, \; \mu_2, \; \ldots, \; \mu_n), \tag 7$
und so finden wir das $A$ ist diagonalisiert durch $S$. $OE \Delta$.