СВД: Почему правая сингулярная матрица записывается как транспонированная
SVD всегда записывается как,
A = U Σ V_Transpose

Возникает вопрос: почему правая сингулярная матрица записывается как V_Transpose?
Я имею в виду, скажем, W = V_Transpose
а затем записать SVD как A = U Σ W
SVD Изображение предоставлено: https://youtu.be/P5mlg91as1c
Спасибо
Ответы
$V^T$ - эрмитово транспонирование (комплексно сопряженное транспонирование) $V$.
$V$ сам содержит правые сингулярные векторы $A$ которые являются (ортонормированными) собственными векторами $A^TA$; в той мере:$A^TA = VS^2V^T$. Если бы мы написали$W = V^T$, тогда $W$ больше не будет представлять собственные векторы $A^TA$. Кроме того, определение SVD как:$A = USV^T$ позволяет нам напрямую использовать $U$ и $V$ диагонализовать матрицу в смысле $Av_i = s_iu_i$, за $i\leq r$ где $r$ это ранг $A$ (т.е. $AV = US$). Наконец, используя$USV^T$ также упрощает наш расчет в случае симметричной матрицы $A$ в таком случае $U$ и $V$ будет совпадать (с точностью до знака), и это позволит нам напрямую связать сингулярное разложение с собственным разложением $A = Q \Lambda Q^T$. Чтобы прояснить: " да, используя$V^T$ вместо $W = V^T$немного условно ", но полезно.
Он написан как транспонированный по причинам линейной алгебры.
Рассмотрим тривиальный случай ранга один $A = uv^T$, где $u$ и $v$являются, скажем, единичными векторами. Это выражение говорит вам, что как линейное преобразование,$A$ берет вектор $v$ к $u$, и ортогональное дополнение к $v$до нуля. Вы можете видеть, как транспонирование проявляется естественно.
Это обобщается SVD, который сообщает вам, что любое линейное преобразование является суммой таких карт первого ранга, и, более того, вы можете организовать слагаемые ортогональными. В частности, разложение$$ A = U\Sigma V^T = \sum_{i = 1}^k \sigma_i u_i v_i^T $$ говорит, что для любого линейного преобразования $A$ на $\mathbb{R}^n$ для некоторых $n$ (в общем, любой компактный оператор в сепарабельном гильбертовом пространстве), вы можете найти ортонормированные множества $\{v_i\}$ и $\{u_i\}$ такой, что
$\{v_i\}$ пролеты $\ker(A)^{\perp}$.
$A$ берет $v_i$ к $\sigma_i u_i$, для каждого $i$.
Частным случаем этого является спектральное разложение для положительно полуопределенной матрицы $A$, где $U = V$ и $u_i$являются собственными векторами $A$--- слагаемые $u_i u_i^T$ортогональные проекции первого ранга. Для эрмитов$A$, $U$ "почти равно" $V$--- если соответствующее собственное значение отрицательно, нужно взять $u_i = -v_i$ так что $\sigma_i \geq 0$.
Мой ответ намного тупее других ...
скажем, W = V_Transpose
а затем записать SVD как A = U Σ W
этим вы просите читателя запомнить еще одну переменную ($W$), но для простого выражения как $V^T$ просто не стоит, ИМО.