Diberikan a $2\times 2$ matriks $A$, apakah dua nilai eigen unik menjamin hal itu $A$ bisa didiagonisasi?
Pertanyaan ini berkaitan dengan seminar yang sedang saya kerjakan, jadi saya tidak ingin mengungkapkan keseluruhan pertanyaan tetapi hanya menanyakan bagaimana hal ini akan ditangani dalam teori.
$A = \begin{bmatrix}a & b \\ c & d \end{bmatrix}$ $Q=(\lambda I - A) = \begin{bmatrix}\lambda - a & -b \\ -c & \lambda - d \end{bmatrix}$
Kami kemudian ingin mencari nilai eigen dari $A$, yang merespons pemecahan $\det(Q)=0$. Pertanyaan saya adalah, mengingat kita akan mendapatkan dua nilai eigen unik, apakah itu berarti kita dijamin matriks itu$A$bisa didiagonalisasi? Saya hanya menemukan teorema yang mengatakan jika kita memiliki dua vektor eigen yang berbeda untuk a$2\times 2$ matriks $A$, kemudian $A$ dapat didiagonalisasi ...
Bantuan akan sangat dihargai!
Jawaban
Jika Anda memiliki $2$ nilai eigen unik, artinya polinomial karakteristik Anda akan terlihat seperti ini: $(λ-a)(λ-b)$, dimana $a$ dan $b$adalah nilai eigen Anda.
Sekarang sebuah matriks dapat didiagonisasi jika untuk masing-masing nilai eigennya keserbaragaman aljabar sama dengan kelipatan geometris.
Dalam kasus kami, Anda memiliki perkalian aljabar$1$ (untuk setiap nilai eigen), dan dengan demikian kelipatan geometriknya juga sama $1$ ($0<\text{geometric multiplicity} \leq \text{algebraic multiplicity}$) sehingga matriks dapat didiagonisasi.
Jadi untuk seorang jenderal$n\times n$ matriks jika Anda punya $n$ eigenvalues yang unik, dapat didiagonisasi.
Jika $A$ adalah $n \times n$ matriks nilai eigen yang berbeda, ada vektor bukan nol $V_i$, $1 \le i \le n$, dengan
$AV_i = \mu_i V_i \tag 1$
itu $\mu_i$ menjadi nilai eigen yang berbeda dari $A$. Diketahui dengan baik bahwa vektor eigen yang terkait dengan nilai eigen berbeda tidak bergantung secara linier; demikianlah matriksnya
$S = [V_1 \; V_2 \; \ldots \; V_n ] \tag 2$
adalah non-singular dan karenanya dapat dibalik, jadi ada $n \times n$ matriks $S^{-1}$ dengan
$S^{-1}S = SS^{-1} = I; \tag 3$
juga,
$AS = [AV_1 \; AV_2 \; \ldots \; AV_n ] = [\mu_1 V_1 \; \mu_2 V_2 \; \ldots \; \mu_n V_n]; \tag 4$
jadi
$S^{-1}AS = S^{-1} [\mu_1 V_1 \; \mu_2 V_2 \; \ldots \; \mu_n V_n] = [\mu_1 S^{-1} V_1 \; \mu_2 S^{-1} V_2 \; \ldots \; \mu_n S^{-1} V_n]; \tag 5$
sekarang sesuai dengan (2) dan (3),
$S^{-1}S = S^{-1} [V_1 \; V_2 \; \ldots \; V_n ] = [S^{-1} V_1 \; S^{-1} V_2 \; \ldots \; S^{-1} V_n ] = I, \tag 6$
yang menunjukkan bahwa masing-masing $S^{-1} V_i$ adalah vektor kolom yang $i$entri -th sama dengan $1$ dengan semua elemen lainnya $0$; menggabungkan pengamatan ini ke (5) yang kami peroleh
$S^{-1}AS = \text{diag}(\mu_1, \; \mu_2, \; \ldots, \; \mu_n), \tag 7$
dan kami menemukan itu $A$ diagonalisasi oleh $S$. $OE \Delta$.