Apa yang dapat diamati saat mengukur banyak qubit dalam basis komputasi?
Dalam Nielsen dan Chuang, komputasi kuantum dan informasi kuantum, definisi berikut diberikan untuk pengukuran proyektif:
Pengukuran proyektif dijelaskan dengan observasi $M$ :
$$M = \sum_m m P_m$$
dengan $P_m$ proyektor ke Eigenspace of $M$ dengan nilai eigen $m$.
Pertanyaan saya sekarang adalah, ketika kita mengatakan kita mengukur sistem n qubit dalam basis komputasi, observasi mana yang kita rujuk dengan tepat?
Untuk 1 qubit, saya tahu bahwa ini mengacu pada Z yang dapat diamati:
$$Z = \begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix} = |0 \rangle \langle 0| - |1\rangle \langle 1|.$$
untuk n qubit, intuisi saya adalah:
\begin{align*} P_1 & = \underbrace{Z \otimes I \otimes ... \otimes I}_{n \textrm{ terms}}. \\ P_2 & = I \otimes Z \otimes ... \otimes I. \\ & ... \\ P_n & = I \otimes I \otimes ... \otimes Z. \end{align*}
dengan saya matriks identitas.
Kemudian yang dapat diamati akan menjadi seperti dalam definisi. Apakah itu benar ?
Jawaban
Perhatikan bahwa definisi matriks proyeksi Anda saat ini $\{P_{1},P_{2},...,P_{n}\}$ sebenarnya bukan matriks proyeksi, karena $P_{i}^{2} = I \not= P_{i} \,\, \forall i$.
Apa yang berhasil 'lebih baik' adalah jika Anda memiliki sesuatu seperti:
\ begin {persamaan} \ begin {split} P_ {1} ^ {+ 1} = & | 0 \ rangle \ langle 0 | \ kadang saya \ kadang saya .... \ kadang saya \ P_ {1} ^ {- 1} = & | 1 \ rangle \ bahasa 1 | \ kadang saya \ kadang saya .... \ kadang saya \ \ P_ {2} ^ {+ 1} = & \ kadang | 0 \ rangle \ bahasa 0 | \ kadang I .... \ kadang I \\ P_ {2} ^ {- 1} = & I \ otimes | 1 \ rangle \ bahasa 1 | \ kadang saya .... \ kadang saya \ \ & \ vdots \\ P_ {n} ^ {+ 1} = & Saya \ kadang saya .... \ kadang saya \ kadang | 0 \ rangle \ bahasa 0 | \ \ P_ {n} ^ {- 1} = & I \ otimes I .... \ otimes I \ otimes | 1 \ rangle \ langle 1 | \\ \ end {split} \ end {persamaan}
Namun, PVM harus memiliki itu $\sum_{i = 0}^{2n-1} P_{i} = I$, yang jelas tidak terjadi di sini! Seseorang dapat menyelesaikannya dengan menormalkan ulang, tetapi ada hal lain yang hilang di sini: proyektor ini sebenarnya tidak memperhitungkan korelasi apa pun yang mungkin dimiliki pengukuran.
Oleh karena itu, 'pilihan' yang lebih baik adalah operator pengukuran $Z_{n} = Z \otimes Z \otimes Z ... \otimes Z$. Operator ini punya$2^{n}$ vektor eigen:
$$Z_{n} = \sum_{i \in \{0,1\}^{n}} m_{i} |i\rangle\langle i|,$$ dimana $m_{i} = \pm 1$ berdasarkan paritas bitstring $i$. Sebagai hasil pengukuran, Anda mendapatkan bitstring$i$, terkait dengan proyeksi di negara bagian $|i\rangle$.
Anda hanya ingin setiap operator yang diagonal yang memiliki unsur-unsur diagonal yang berbeda (yang akan berarti bahwa setiap dasar elemen peta ke output yang berbeda dari pengukuran).
Salah satu cara mudah untuk menunjukkannya dalam istilah matriks Pauli adalah $$ \sum_{i=1}^N2^{N-i-1}(1-Z_i) $$ Untuk negara basis $|x\rangle$ dimana $x$ adalah bilangan biner, nilai eigen adalah representasi desimal dari $x$(dan karenanya berbeda). Tentu saja, Anda dapat menghilangkan semua istilah identitas karena istilah tersebut hanya memberikan pergeseran dalam semua nilai eigen.
Perhatikan bahwa jika Anda mempertimbangkan pengukuran proyektif, tidak perlu berurusan dengan observable sama sekali. Pengukuran proyektif dicirikan oleh dasarnya$\newcommand{\ket}[1]{\lvert #1\rangle}\{\ket{u_i}\}_i$ yang Anda ukur, dan oleh karena itu probabilitas proyeksi terkait $p_i\equiv \lvert\langle u_i\rvert \psi\rangle\rvert^2$ (kapan $\ket\psi$adalah negara yang sedang diukur). Anda tidak membutuhkan yang lain.
Membawa sebuah observasi ke dalam gambar bisa berguna, tergantung pada keadaan dan apa yang sebenarnya Anda minati. Tapi ingatlah bahwa observable digunakan untuk menghitung nilai ekspektasi . Dengan kata lain, Anda mendefinisikan sebuah observasi dengan melampirkan angka ke hasil pengukuran yang mungkin, dan kemudian menghitung nilai ekspektasi dari angka-angka ini sehubungan dengan distribusi probabilitas.$p_i$.