एसवीडी: क्यों सही विलक्षण मैट्रिक्स को ट्रांसपोज़ के रूप में लिखा जाता है

Aug 18 2020

SVD को हमेशा लिखा जाता है,

A = U = V_Transpose

सवाल यह है कि क्यों सही सिंगुलर मैट्रिक्स को V_Transpose लिखा जाता है?

मेरा मतलब है कि W = V_Trans को कहने दें

और फिर SVD को A = U write W लिखें

SVD छवि क्रेडिट: https://youtu.be/P5mlg91as1c

धन्यवाद

जवाब

4 usεr11852 Aug 18 2020 at 20:37

$V^T$ हर्मिटियन ट्रांसपोज़ (जटिल संयुग्मन पारगमन) है $V$

$V$ अपने आप में सही एकवचन वैक्टर रखता है $A$ कि (orthonormal) के स्वदेशी हैं $A^TA$; इस हद तक:$A^TA = VS^2V^T$। अगर हमने लिखा$W = V^T$, फिर $W$ अब के eigenvectors का प्रतिनिधित्व नहीं करेगा $A^TA$। इसके अतिरिक्त, SVD को परिभाषित करना:$A = USV^T$ हमें सीधे उपयोग करने की अनुमति देता है $U$ तथा $V$ के अर्थ में मैट्रिक्स को तिरछे करना $Av_i = s_iu_i$, के लिये $i\leq r$ कहाँ पे $r$ की रैंक है $A$ (अर्थात $AV = US$) है। अंत में उपयोग कर रहा है$USV^T$ सममित मैट्रिक्स के मामले में हमारी गणना को भी सरल करता है $A$ कौनसे मामलेमें $U$ तथा $V$ संयोग होगा (एक संकेत तक) और यह हमें एकवचन अपघटन को सीधे स्वदेश-अपघटन से जोड़ने की अनुमति देगा $A = Q \Lambda Q^T$। बस स्पष्ट होना: " हाँ, का उपयोग करना$V^T$ के बजाय $W = V^T$एक सा सम्मेलन है "लेकिन एक सहायक है।

6 Michael Aug 18 2020 at 22:21

यह रैखिक बीजीय कारणों के लिए एक बदलाव के रूप में लिखा गया है।

तुच्छ रैंक-एक मामले पर विचार करें $A = uv^T$, कहाँ पे $u$ तथा $v$कहते हैं, यूनिट वैक्टर। यह अभिव्यक्ति आपको बताती है कि, रैखिक परिवर्तन के रूप में,$A$ वेक्टर लेता है $v$ सेवा $u$, और ऑर्थोगोनल पूरक के $v$शून्य करने के लिए। आप देख सकते हैं कि संक्रमण स्वाभाविक रूप से कैसे दिखता है।

यह एसवीडी द्वारा सामान्यीकृत है, जो आपको बताता है कि कोई भी रैखिक परिवर्तन इस तरह के रैंक-एक नक्शे का एक योग है, और, क्या अधिक है, आप सारांश को ऑर्थोगोनल होने की व्यवस्था कर सकते हैं। विशेष रूप से, अपघटन$$ A = U\Sigma V^T = \sum_{i = 1}^k \sigma_i u_i v_i^T $$ किसी भी रैखिक परिवर्तन के लिए $A$ पर $\mathbb{R}^n$ कुछ के लिए $n$ (अधिक आम तौर पर, अलग हिल्बर्ट स्पेस पर कोई भी कॉम्पैक्ट ऑपरेटर), आप ऑर्थोनॉर्मल सेट पा सकते हैं $\{v_i\}$ तथा $\{u_i\}$ ऐसा है कि

  1. $\{v_i\}$ फैला $\ker(A)^{\perp}$

  2. $A$ लेता है $v_i$ सेवा $\sigma_i u_i$, प्रत्येक के लिए $i$

इसका एक विशेष मामला एक सकारात्मक अर्धचालक मैट्रिक्स के लिए वर्णक्रमीय विघटन है $A$, कहाँ पे $U = V$ और यह $u_i$के eigenvectors हैं $A$--- सम्मेद $u_i u_i^T$रैंक-वन ऑर्थोगोनल अनुमान हैं। हर्मिटियन के लिए$A$, $U$ "लगभग बराबर" है $V$--- यदि इसी eigenvalue नकारात्मक है, तो एक लेना होगा $u_i = -v_i$ ताकि $\sigma_i \geq 0$

dariober Aug 19 2020 at 08:26

मेरा जवाब दूसरों की तुलना में बहुत कम है ...

कहते हैं, W = V_Transpose

और फिर SVD को A = U write W लिखें

इसके साथ ही आप पाठक से एक और चर याद करने के लिए कह रहे हैं ($W$) लेकिन एक सरल अभिव्यक्ति के लिए के रूप में $V^T$ सिर्फ इसके लायक नहीं है, IMO।