Por que todos $|X\rangle\in H_1\otimes H_0$ ser escrito como $|X\rangle=(X\otimes I_{H_0})|\Omega \rangle$ para alguns $X\in\mathcal L(H_0,H_1)$?
Em uma estrutura teórica para redes quânticas é provado que um mapa linear$\mathcal{M} \in \mathcal{L}(\mathcal{H_0},\mathcal{H_1})$ é CP (completamente positivo) se for seu operador Choi $M$é positivo semi-definido. Algo me confunde nesta derivação.
Primeiro, alguns lembretes de definição.
Deixei $X \in \mathcal{L}(H_0,H_1)$, deixei $\{|i \rangle \}_i$ ser uma base ortonormal de $H_0$, temos:
$$ | \mathcal{I} \rangle \rangle \equiv \sum_i |ii \rangle$$ $$|X \rangle \rangle \equiv (X \otimes \mathcal{I}) | \mathcal{I} \rangle \rangle$$
O operador Choi é definido como:
$$ M = \mathcal{M} \otimes \mathcal{I}_{H_0} | \mathcal{I} \rangle \rangle \langle \langle \mathcal{I} |$$
Em sua prova, ele assume $M \geq 0$ o objetivo é mostrar que isso implica $\mathcal{M}$ é CP.
$M$é semi-definido positivo, o que implica que é hermitiano com autovalores positivos. Portanto, pode ser diagonalizado. Com$\lambda_i \geq 0$, temos:
$$ M = \sum_i \lambda_i |u_i \rangle \langle u_i |=\sum_i | K_i \rangle \langle K_i |$$
Com $|K_i \rangle = \sqrt{\lambda_i} |u_i \rangle$
Mas ele parece considerar "automaticamente" que $|K_i \rangle = |K_i \rangle \rangle$. Eu não entendo isso. Por que nós necessariamente teríamos$|K_i \rangle = (K_i \otimes \mathcal{I}) | \mathcal{I} \rangle \rangle$. É um caso muito particular. Por que o estado pode ser escrito como uma operação local agindo em um estado máximo emaranhado?
Tenho uma memória super vaga de que qualquer estado quântico pode ser escrito como $(K \otimes \mathbb{I}) | \mathcal{I} \rangle \rangle$. Dito de outra forma, sempre existe uma operação linear$K$ (não necessariamente unitário, é claro) de modo que qualquer vetor em $H_1 \otimes H_0$ pode ser escrito como $K \otimes \mathcal{I} | \mathcal{I} \rangle \rangle$Eu acho que isso resolveria o problema. Mas não consigo encontrar a fonte disso e posso estar totalmente errado.
No final, por que podemos escrever: $|K_i \rangle = |K_i \rangle \rangle$. Gostaria de uma prova disso (e se a propriedade de que acabei de falar for válida, gostaria de um link para uma referência que a expresse ou de uma prova disso também na resposta)
Respostas
Deixei $K$ ser um vetor $$ |K\rangle=\sum_{ij}K_{ij}|i,j\rangle. $$ Poderíamos reescrever este ias $$ |K\rangle=\left(\left(\sum_{ij}K_{ij}|i\rangle\langle j|\right)|j\rangle\right)\otimes|j\rangle, $$ e isso é exatamente o mesmo que $$ |K\rangle=K\otimes 1\sum_j|j,j\rangle=|K\rangle\rangle $$ se definirmos a matriz $K$ ser estar $K=\sum_{ij}K_{ij}|i\rangle\langle j|$.
Você já definiu a matriz de Choi como $M = \rho_{\mathrm{Choi}} = \left(\mathcal{M}\otimes I\right)(|\mathcal{I}\rangle\rangle\langle\langle\mathcal{I}||)$. Vou escrever o estado máximo emaranhado como$|\mathcal{\Omega}\rangle$ porque é mais legível para mim e estou mais acostumada a ele.
Você já apontou que $M$ ser semidefinido positivo significa que podemos realizar uma decomposição espectral de valor real:
$$ M = \sum_{i}\lambda_{i}|u_{i}\rangle\langle u_{i}| = \sum_{i}\sqrt{\lambda_{i}}|u_{i}\rangle\langle u_{i}| \sqrt{\lambda_{i}}. $$ Podemos decompor estes $\sqrt{\lambda_{i}}|u_{i}\rangle$é um produto tensorial de uma base para ambas as cópias dos espaços de Hilbert: $$ \sqrt{\lambda_{i}}|u_{i}\rangle = \sum_{l}|a^{i}_{l}\rangle \otimes |b^{i}_{l}\rangle, $$
o que significa que podemos escrever: \ begin {equation} \ begin {split} M = & \ sum_ {i} \ lambda_ {i} | u_ {i} \ rangle \ langle u_ {i} | = \ sum_ {i} \ sum_ {l} \ sum_ {m} | a ^ {i} _ {l} \ rangle \ otimes | b ^ {i} _ {l} \ rangle \ langle a ^ {i} _ {m} | \ otimes \ langle b ^ {i} _ {m} | \\ = & \ sum_ {i, l, m} | a ^ {i} _ {l} \ rangle \ langle a ^ {i} _ {m} | \ otimes | b ^ {i} _ {l} \ rangle \ langle b ^ {i} _ {m} |. \ end {split} \ end {equation}
Como você deve saber, podemos escrever a 'saída' do mapa $\mathcal{M}$ na 'entrada' $\rho_{\mathrm{in}}$, que portanto é $\rho_{\mathrm{out}} = \mathcal{M}\left(\rho_{\mathrm{in}}\right)$, em termos da matriz Choi $M$:
$$ \mathcal{M}\left(\rho_{\mathrm{in}}\right) = d \mathrm{tr}_{2}\big[M\left(I \otimes \rho_{\mathrm{in}}^{T}\right)\big], $$ onde o traço é o traço parcial sobre o segundo subsistema, e o $T$ sobrescrito significa a transposição.
Agora, conectamos nossa decomposição acima para $M$: \ begin {equation} \ begin {split} \ mathcal {M} \ left (\ rho _ {\ mathrm {in}} \ right) & = d \ mathrm {tr} _ {2} \ big [M \ left ( I \ otimes \ rho _ {\ mathrm {in}} ^ {T} \ right) \ big] \\ & = d \ mathrm {tr} _ {2} \ big [\ sum_ {i, l, m} | a ^ {i} _ {l} \ rangle \ langle a ^ {i} _ {m} | \ otimes | b ^ {i} _ {l} \ rangle \ langle b ^ {i} _ {m} | \ left (I \ otimes \ rho _ {\ mathrm {in}} ^ {T} \ right) \ big] \\ & = d \ sum_ {i, l, m} \ mathrm {tr} _ {2} \ big [| a ^ {i} _ {l} \ rangle \ langle a ^ {i} _ {m} | \ otimes | b ^ {i} _ {l} \ rangle \ langle b ^ {i} _ {m} | \ rho _ {\ mathrm {in}} ^ {T} \ big] \\ & = d \ sum_ {i, l, m} | a ^ {i} _ {l} \ rangle \ langle a ^ {i} _ {m} | \ langle b ^ {i} _ {m} | \ rho _ {\ mathrm {in}} ^ {T} | b ^ {i} _ {l} \ rangle \\ & = d \ sum_ {i, l, m} | a ^ {i} _ {l} \ rangle \ langle a ^ {i} _ {m} | \ langle b ^ {* i} _ {l} | \ rho _ {\ mathrm {in}} | b ^ {* i} _ {m} \ rangle \\ & = d \ sum_ {i, l, m} | a ^ {i} _ {l} \ rangle \ langle b ^ {* i} _ {l} | \ rho _ {\ mathrm {in}} | b ^ {* i} _ {m} \ rangle \ langle a ^ {i} _ {m} | \\ & = \ sum_ {i} A_ {i} \ rho _ {\ mathrm {in}} A_ {i} ^ {\ dagger}, \ end {split} \ end {equation} com$A_{i} = \sum_{l}\sqrt{d} |a^{i}_{l}\rangle \langle b^{*i}_{l}|$. Esta é apenas a decomposição de Kraus, o que é suficiente para$\mathcal{M}$ sendo CP.
Deixei $\newcommand{\kett}[1]{\lvert #1\rangle\!\rangle}\newcommand{\ket}[1]{\lvert#1\rangle}\ket m\equiv \sum_k \ket{k,k}$ denotam o estado (não normalizado) máximo emaranhado.
A relação $\kett X=(X\otimes I)\ket m$equivale a algum malabarismo de índice simples. Com isso, quero dizer que você está considerando o mesmo objeto, ou seja , o mesmo conjunto de números, mas interpretando-o de maneiras diferentes (como um operador e não como um vetor).
Para ver isso, deixe $X\in\mathcal L(H_0,H_1)$ seja o seu operador, cujos elementos da matriz (em alguma escolha de base) escrevemos como $X_{ij}$. Observe que você pode entender$X_{ij}$ como um operador ("enviando o índice $j$ para o índice $i$"), ou como um vetor em$H_0\otimes H_1$. Mais formalmente, se escrevermos com$\kett X$ a "interpretação vetorial" de $X$, temos $$\langle i,j\kett X = X_{ij} =\langle i|X|j\rangle = \langle i,j|(X\otimes I)\ket m,$$ onde usamos $\langle i,j|X\otimes I|k,\ell\rangle = X_{ik}\delta_{j\ell},$ e assim $\kett X=(X\otimes I)\ket m.$ Isso também é frequentemente escrito como $\kett X=\operatorname{vec}(X)$, com $\operatorname{vec}:\mathrm{Lin}(\mathcal X,\mathcal Y)\to\mathcal Y\otimes\mathcal X$ a operação de "vetorização".