SVD: Por que a matriz singular direita é escrita como transposta

Aug 18 2020

O SVD é sempre escrito como,

A = U Σ V_Transpose

A questão é: por que a matriz singular certa é escrita como V_Transpose?

Quer dizer, digamos, W = V_Transpose

e então escreva SVD como A = U Σ W

Crédito da imagem SVD: https://youtu.be/P5mlg91as1c

Obrigado

Respostas

4 usεr11852 Aug 18 2020 at 20:37

$V^T$ é a transposta hermitiana (a transposta conjugada complexa) de $V$.

$V$ em si detém os vetores corretos do singular de $A$ que são os autovetores (ortonormais) de $A^TA$; nessa medida:$A^TA = VS^2V^T$. Se escrevêssemos$W = V^T$, então $W$ não representaria mais os vetores próprios de $A^TA$. Além disso, definir o SVD como:$A = USV^T$ nos permite usar diretamente $U$ e $V$ para diagonalizar a matriz no sentido de $Av_i = s_iu_i$, para $i\leq r$ Onde $r$ é a classificação de $A$ (ie $AV = US$) Finalmente usando$USV^T$ também simplifica nosso cálculo no caso de uma matriz simétrica $A$ em qual caso $U$ e $V$ coincidirá (até um sinal) e nos permitirá ligar diretamente a decomposição singular à decomposição própria $A = Q \Lambda Q^T$. Só para deixar claro: " sim, usando$V^T$ ao invés de $W = V^T$é um pouco convencional ", mas é útil.

6 Michael Aug 18 2020 at 22:21

É escrito como uma transposição por razões algébricas lineares.

Considere o caso trivial de classificação um $A = uv^T$, Onde $u$ e $v$são, digamos, vetores unitários. Esta expressão diz que, como uma transformação linear,$A$ pega o vetor $v$ para $u$, e o complemento ortogonal de $v$a zero. Você pode ver como a transposição aparece naturalmente.

Isso é generalizado pelo SVD, que diz a você que qualquer transformação linear é uma soma desses mapas de nível um e, o que é mais, você pode fazer com que a soma seja ortogonal. Especificamente, a decomposição$$ A = U\Sigma V^T = \sum_{i = 1}^k \sigma_i u_i v_i^T $$ diz que, para qualquer transformação linear $A$ em $\mathbb{R}^n$ para alguns $n$ (mais geralmente, qualquer operador compacto no espaço de Hilbert separável), você pode encontrar conjuntos ortonormais $\{v_i\}$ e $\{u_i\}$ de tal modo que

  1. $\{v_i\}$ vãos $\ker(A)^{\perp}$.

  2. $A$ leva $v_i$ para $\sigma_i u_i$, para cada $i$.

Um caso especial disso é a decomposição espectral para uma matriz semidefinida positiva $A$, Onde $U = V$ e a $u_i$são os vetores próprios de $A$--- os summands $u_i u_i^T$são projeções ortogonais de nível um. Para Hermitian$A$, $U$ é "quase igual" a $V$--- se o autovalor correspondente for negativo, deve-se tomar $u_i = -v_i$ de modo a $\sigma_i \geq 0$.

dariober Aug 19 2020 at 08:26

Minha resposta é muito mais burra do que as outras ...

digamos, W = V_Transpose

e então escreva SVD como A = U Σ W

com isso você está pedindo ao leitor para memorizar mais uma variável ($W$), mas para uma expressão simples como $V^T$ simplesmente não vale a pena, IMO.