SVD: Por qué la matriz singular derecha se escribe como transpuesta
La SVD siempre se escribe como,
A = U Σ V_Transponer

La pregunta es, ¿por qué la matriz singular correcta se escribe como V_Transpose?
Quiero decir, digamos, W = V_Transpose
y luego escribe SVD como A = U Σ W
Crédito de imagen SVD: https://youtu.be/P5mlg91as1c
Gracias
Respuestas
$V^T$ es la transpuesta hermitiana (la compleja transposición conjugada) de $V$.
$V$ sí mismo contiene los vectores de derecha singular de $A$ que son los autovectores (ortonormales) de $A^TA$; hasta ese punto:$A^TA = VS^2V^T$. Si escribimos$W = V^T$, luego $W$ ya no representaría los vectores propios de $A^TA$. Además, la definición de la SVD como:$A = USV^T$ nos permite usar directamente $U$ y $V$ diagonalizar la matriz en el sentido de $Av_i = s_iu_i$, para $i\leq r$ dónde $r$ es el rango de $A$ (es decir $AV = US$). Finalmente usando$USV^T$ también simplifica nuestro cálculo en el caso de una matriz simétrica $A$ en ese caso $U$ y $V$ coincidirá (hasta un signo) y nos permitirá vincular directamente la descomposición singular con la descomposición propia $A = Q \Lambda Q^T$. Para que quede claro: " sí, usando$V^T$ en vez de $W = V^T$es un poco convencional "pero es útil.
Está escrito como una transposición por razones algebraicas lineales.
Considere el caso trivial de rango uno $A = uv^T$, dónde $u$ y $v$son, digamos, vectores unitarios. Esta expresión te dice que, como transformación lineal,$A$ toma el vector $v$ a $u$, y el complemento ortogonal de $v$a cero. Puedes ver cómo la transposición se muestra de forma natural.
Esto es generalizado por la SVD, que le dice que cualquier transformación lineal es una suma de tales mapas de rango uno y, lo que es más, puede hacer que los sumandos sean ortogonales. Específicamente, la descomposición$$ A = U\Sigma V^T = \sum_{i = 1}^k \sigma_i u_i v_i^T $$ dice que, para cualquier transformación lineal $A$ en $\mathbb{R}^n$ para algunos $n$ (más generalmente, cualquier operador compacto en un espacio Hilbert separable), puede encontrar conjuntos ortonormales $\{v_i\}$ y $\{u_i\}$ tal que
$\{v_i\}$ tramos $\ker(A)^{\perp}$.
$A$ toma $v_i$ a $\sigma_i u_i$, para cada $i$.
Un caso especial de esto es la descomposición espectral de una matriz semidefinida positiva $A$, dónde $U = V$ y el $u_i$son los vectores propios de $A$--- los sumandos $u_i u_i^T$son proyecciones ortogonales de rango uno. Para Hermitian$A$, $U$ es "casi igual" a $V$--- si el valor propio correspondiente es negativo, hay que tomar $u_i = -v_i$ así que eso $\sigma_i \geq 0$.
Mi respuesta es mucho más tonta que las demás ...
digamos, W = V_Transpose
y luego escribe SVD como A = U Σ W
con eso le está pidiendo al lector que memorice una variable más ($W$) pero para una expresión simple como $V^T$ simplemente no vale la pena, en mi opinión.