Przejdź do głównej treści

Iloczyny skalarne i rzutowania

Aby lepiej przygotować się do zgłębiania możliwości i ograniczeń obwodów kwantowych, wprowadzamy teraz kilka dodatkowych pojęć matematycznych — mianowicie iloczyn skalarny między wektorami (oraz jego związek z normą euklidesową), pojęcia ortogonalności i orthonormality dla zbiorów wektorów, a także macierze rzutowania, które pozwolą nam wprowadzić poręczne uogólnienie standardowych pomiarów w bazie.

Iloczyny skalarne

Przypomnijmy, że kiedy używamy notacji Diraca do oznaczenia dowolnego wektora kolumnowego jako ket, na przykład

ψ=(α1α2αn),\vert \psi \rangle = \begin{pmatrix} \alpha_1\\ \alpha_2\\ \vdots\\ \alpha_n \end{pmatrix},

odpowiadający mu wektor bra jest sprzężeniem hermitowskim (transpozycją sprzężoną) tego wektora:

ψ=(ψ)=(α1α2αn).(1)\langle \psi \vert = \bigl(\vert \psi \rangle \bigr)^{\dagger} = \begin{pmatrix} \overline{\alpha_1} & \overline{\alpha_2} & \cdots & \overline{\alpha_n} \end{pmatrix}. \tag{1}

Alternatywnie, jeśli mamy na myśli pewien zbiór stanów klasycznych Σ\Sigma i wyrażamy wektor kolumnowy jako ket, na przykład

ψ=aΣαaa,\vert \psi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle,

to odpowiadający mu wektor wierszowy (lub bra) jest sprzężeniem hermitowskim

ψ=aΣαaa.(2)\langle \psi \vert = \sum_{a\in\Sigma} \overline{\alpha_a} \langle a \vert. \tag{2}

Mamy także, że iloczyn wektora bra i wektora ket, traktowanych jako macierze mające odpowiednio jeden wiersz lub jedną kolumnę, daje skalar. Konkretnie, jeśli mamy dwa wektory kolumnowe

ψ=(α1α2αn)orazϕ=(β1β2βn),\vert \psi \rangle = \begin{pmatrix} \alpha_1\\ \alpha_2\\ \vdots\\ \alpha_n \end{pmatrix} \quad\text{oraz}\quad \vert \phi \rangle = \begin{pmatrix} \beta_1\\ \beta_2\\ \vdots\\ \beta_n \end{pmatrix},

tak że wektor wierszowy ψ\langle \psi \vert jest taki jak w równaniu (1),(1), to

ψϕ=ψϕ=(α1α2αn)(β1β2βn)=α1β1++αnβn.\langle \psi \vert \phi \rangle = \langle \psi \vert \vert \phi \rangle = \begin{pmatrix} \overline{\alpha_1} & \overline{\alpha_2} & \cdots & \overline{\alpha_n} \end{pmatrix} \begin{pmatrix} \beta_1\\ \beta_2\\ \vdots\\ \beta_n \end{pmatrix} = \overline{\alpha_1} \beta_1 + \cdots + \overline{\alpha_n}\beta_n.

Alternatywnie, jeśli mamy dwa wektory kolumnowe zapisane jako

ψ=aΣαaaorazϕ=bΣβbb,\vert \psi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle \quad\text{oraz}\quad \vert \phi \rangle = \sum_{b\in\Sigma} \beta_b \vert b \rangle,

tak że ψ\langle \psi \vert jest wektorem wierszowym (2),(2), to otrzymujemy

ψϕ=ψϕ=(aΣαaa)(bΣβbb)=aΣbΣαaβbab=aΣαaβa,\begin{aligned} \langle \psi \vert \phi \rangle & = \langle \psi \vert \vert \phi \rangle\\ & = \Biggl(\sum_{a\in\Sigma} \overline{\alpha_a} \langle a \vert\Biggr) \Biggl(\sum_{b\in\Sigma} \beta_b \vert b\rangle\Biggr)\\ & = \sum_{a\in\Sigma}\sum_{b\in\Sigma} \overline{\alpha_a} \beta_b \langle a \vert b \rangle\\ & = \sum_{a\in\Sigma} \overline{\alpha_a} \beta_a, \end{aligned}

gdzie ostatnia równość wynika z obserwacji, że aa=1\langle a \vert a \rangle = 1 oraz ab=0\langle a \vert b \rangle = 0 dla stanów klasycznych aa i bb spełniających ab.a\neq b.

Wartość ψϕ\langle \psi \vert \phi \rangle nazywana jest iloczynem skalarnym wektorów ψ\vert \psi\rangle i ϕ.\vert \phi \rangle. Iloczyny skalarne mają kluczowe znaczenie w informacji i obliczeniach kwantowych; nie moglibyśmy daleko zajść w rozumieniu informacji kwantowej na poziomie matematycznym bez nich.

Zbierzmy teraz razem kilka podstawowych faktów dotyczących iloczynów skalarnych wektorów.

  1. Związek z normą euklidesową. Iloczyn skalarny dowolnego wektora

    ψ=aΣαaa\vert \psi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle

    z samym sobą wynosi

    ψψ=aΣαaαa=aΣαa2=ψ2.\langle \psi \vert \psi \rangle = \sum_{a\in\Sigma} \overline{\alpha_a} \alpha_a = \sum_{a\in\Sigma} \vert\alpha_a\vert^2 = \bigl\| \vert \psi \rangle \bigr\|^2.

    Zatem normę euklidesową wektora można alternatywnie wyrazić jako

    ψ=ψψ.\bigl\| \vert \psi \rangle \bigr\| = \sqrt{ \langle \psi \vert \psi \rangle }.

    Zauważmy, że norma euklidesowa wektora musi być zawsze nieujemną liczbą rzeczywistą. Co więcej, jedynym sposobem, aby norma euklidesowa wektora była równa zero, jest to, że każdy z jego elementów jest równy zeru, czyli że wektor jest wektorem zerowym.

    Możemy podsumować te obserwacje w następujący sposób: dla każdego wektora ψ\vert \psi \rangle mamy

    ψψ0,\langle \psi \vert \psi \rangle \geq 0,

    przy czym ψψ=0\langle \psi \vert \psi \rangle = 0 wtedy i tylko wtedy, gdy ψ=0.\vert \psi \rangle = 0. Ta własność iloczynu skalarnego jest czasami nazywana dodatnią określonością.

  2. Symetria sprzężona. Dla dowolnych dwóch wektorów

    ψ=aΣαaaorazϕ=bΣβbb,\vert \psi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle \quad\text{oraz}\quad \vert \phi \rangle = \sum_{b\in\Sigma} \beta_b \vert b \rangle,

    mamy

    ψϕ=aΣαaβaorazϕψ=aΣβaαa,\langle \psi \vert \phi \rangle = \sum_{a\in\Sigma} \overline{\alpha_a} \beta_a \quad\text{oraz}\quad \langle \phi \vert \psi \rangle = \sum_{a\in\Sigma} \overline{\beta_a} \alpha_a,

    a zatem

    ψϕ=ϕψ.\overline{\langle \psi \vert \phi \rangle} = \langle \phi \vert \psi \rangle.
  3. Liniowość w drugim argumencie (i liniowość sprzężona w pierwszym). Załóżmy, że ψ,\vert \psi \rangle, ϕ1\vert \phi_1 \rangle oraz ϕ2\vert \phi_2 \rangle są wektorami, a α1\alpha_1 i α2\alpha_2 są liczbami zespolonymi. Jeśli zdefiniujemy nowy wektor

    ϕ=α1ϕ1+α2ϕ2,\vert \phi\rangle = \alpha_1 \vert \phi_1\rangle + \alpha_2 \vert \phi_2\rangle,

    to

    ψϕ=ψ(α1ϕ1+α2ϕ2)=α1ψϕ1+α2ψϕ2.\langle \psi \vert \phi \rangle = \langle \psi \vert \bigl( \alpha_1\vert \phi_1 \rangle + \alpha_2\vert \phi_2 \rangle\bigr) = \alpha_1 \langle \psi \vert \phi_1 \rangle + \alpha_2 \langle \psi \vert \phi_2 \rangle.

    Oznacza to, że iloczyn skalarny jest liniowy w drugim argumencie. Można to zweryfikować albo za pomocą powyższych wzorów, albo po prostu zauważając, że mnożenie macierzy jest liniowe w każdym argumencie (a w szczególności w drugim argumencie).

    Połączenie tego faktu z symetrią sprzężoną ujawnia, że iloczyn skalarny jest sprzężenie liniowy w pierwszym argumencie. Oznacza to, że jeśli ψ1,\vert \psi_1 \rangle, ψ2\vert \psi_2 \rangle oraz ϕ\vert \phi \rangle są wektorami, a α1\alpha_1 i α2\alpha_2 są liczbami zespolonymi, i zdefiniujemy

    ψ=α1ψ1+α2ψ2,\vert \psi \rangle = \alpha_1 \vert \psi_1\rangle + \alpha_2 \vert \psi_2 \rangle,

    to

    ψϕ=(α1ψ1+α2ψ2)ϕ=α1ψ1ϕ+α2ψ2ϕ.\langle \psi \vert \phi \rangle = \bigl( \overline{\alpha_1} \langle \psi_1 \vert + \overline{\alpha_2} \langle \psi_2 \vert \bigr) \vert\phi\rangle = \overline{\alpha_1} \langle \psi_1 \vert \phi \rangle + \overline{\alpha_2} \langle \psi_2 \vert \phi \rangle.
  4. Nierówność Cauchy'ego–Schwarza. Dla każdego wyboru wektorów ϕ\vert \phi \rangle i ψ\vert \psi \rangle mających tę samą liczbę elementów, mamy

    ψϕψϕ.\bigl\vert \langle \psi \vert \phi \rangle\bigr| \leq \bigl\| \vert\psi \rangle \bigr\| \bigl\| \vert \phi \rangle \bigr\|.

    Jest to niezwykle przydatna nierówność, która jest dość powszechnie wykorzystywana w informacji kwantowej (i w wielu innych dziedzinach badań).

Zbiory ortogonalne i ortonormalne

Dwa wektory ϕ\vert \phi \rangle i ψ\vert \psi \rangle nazywamy ortogonalnymi, jeżeli ich iloczyn skalarny wynosi zero:

ψϕ=0.\langle \psi \vert \phi \rangle = 0.

Geometrycznie możemy myśleć o wektorach ortogonalnych jako o wektorach wzajemnie prostopadłych.

Zbiór wektorów {ψ1,,ψm}\{ \vert \psi_1\rangle,\ldots,\vert\psi_m\rangle\} nazywamy zbiorem ortogonalnym, jeżeli każdy wektor w tym zbiorze jest ortogonalny do każdego innego wektora w tym zbiorze. Oznacza to, że zbiór ten jest ortogonalny, jeżeli

ψjψk=0\langle \psi_j \vert \psi_k\rangle = 0

dla wszystkich wyborów j,k{1,,m}j,k\in\{1,\ldots,m\}, dla których jk.j\neq k.

Zbiór wektorów {ψ1,,ψm}\{ \vert \psi_1\rangle,\ldots,\vert\psi_m\rangle\} nazywamy zbiorem orthonormal, jeżeli jest zbiorem ortogonalnym i dodatkowo każdy wektor w tym zbiorze jest wektorem jednostkowym. Alternatywnie, zbiór ten jest zbiorem orthonormal, jeżeli mamy

ψjψk={1j=k0jk(3)\langle \psi_j \vert \psi_k\rangle = \begin{cases} 1 & j = k\\[1mm] 0 & j\neq k \end{cases} \tag{3}

dla wszystkich wyborów j,k{1,,m}.j,k\in\{1,\ldots,m\}.

Wreszcie, zbiór {ψ1,,ψm}\{ \vert \psi_1\rangle,\ldots,\vert\psi_m\rangle\} jest bazą orthonormal, jeżeli oprócz tego, że jest zbiorem orthonormal, tworzy także bazę. Jest to równoważne temu, że {ψ1,,ψm}\{ \vert \psi_1\rangle,\ldots,\vert\psi_m\rangle\} jest zbiorem orthonormal, a mm jest równe wymiarowi przestrzeni, z której pochodzą wektory ψ1,,ψm.\vert \psi_1\rangle,\ldots,\vert\psi_m\rangle.

Na przykład, dla dowolnego klasycznego zbioru stanów Σ,\Sigma, zbiór wszystkich wektorów bazy standardowej

{a:aΣ}\big\{ \vert a \rangle \,:\, a\in\Sigma\bigr\}

jest bazą orthonormal. Zbiór {+,}\{\vert+\rangle,\vert-\rangle\} jest bazą orthonormal dla 22-wymiarowej przestrzeni odpowiadającej pojedynczemu kubitowi, a baza Bella {ϕ+,ϕ,ψ+,ψ}\{\vert\phi^+\rangle, \vert\phi^-\rangle, \vert\psi^+\rangle, \vert\psi^-\rangle\} jest bazą orthonormal dla 44-wymiarowej przestrzeni odpowiadającej dwóm kubitom.

Rozszerzanie zbiorów orthonormal do baz orthonormal

Załóżmy, że ψ1,,ψm\vert\psi_1\rangle,\ldots,\vert\psi_m\rangle są wektorami żyjącymi w nn-wymiarowej przestrzeni, a ponadto załóżmy, że {ψ1,,ψm}\{\vert\psi_1\rangle,\ldots,\vert\psi_m\rangle\} jest zbiorem orthonormal. Zbiory orthonormal są zawsze zbiorami liniowo niezależnymi, więc wektory te z konieczności rozpinają podprzestrzeń o wymiarze m.m. Z tego wnioskujemy, że mnm\leq n, ponieważ wymiar podprzestrzeni rozpiętej przez te wektory nie może być większy niż wymiar całej przestrzeni, z której są one pobrane.

Jeżeli zachodzi m<n,m<n, to zawsze możliwy jest wybór dodatkowych nmn-m wektorów ψm+1,,ψn\vert \psi_{m+1}\rangle,\ldots,\vert\psi_n\rangle takich, aby {ψ1,,ψn}\{\vert\psi_1\rangle,\ldots,\vert\psi_n\rangle\} tworzył bazę orthonormal. Do skonstruowania tych wektorów można użyć procedury znanej jako proces ortogonalizacji Grama–Schmidta.

Zbiory orthonormal i macierze unitarne

Zbiory wektorów orthonormal są ściśle powiązane z macierzami unitarnymi. Jednym ze sposobów wyrażenia tego związku jest stwierdzenie, że następujące trzy stwierdzenia są logicznie równoważne (co oznacza, że są wszystkie prawdziwe lub wszystkie fałszywe) dla dowolnego wyboru macierzy kwadratowej UU:

  1. Macierz UU jest unitarna (tzn. UU=I=UUU^{\dagger} U = \mathbb{I} = U U^{\dagger}).
  2. Wiersze macierzy UU tworzą zbiór orthonormal.
  3. Kolumny macierzy UU tworzą zbiór orthonormal.

Ta równoważność jest w zasadzie dość prosta, gdy zastanowimy się, jak działa mnożenie macierzy oraz sprzężenie hermitowskie (transpozycja sprzężona). Załóżmy na przykład, że mamy macierz 3×33\times 3 postaci:

U=(α1,1α1,2α1,3α2,1α2,2α2,3α3,1α3,2α3,3)U = \begin{pmatrix} \alpha_{1,1} & \alpha_{1,2} & \alpha_{1,3} \\[1mm] \alpha_{2,1} & \alpha_{2,2} & \alpha_{2,3} \\[1mm] \alpha_{3,1} & \alpha_{3,2} & \alpha_{3,3} \end{pmatrix}

Sprzężenie hermitowskie macierzy UU wygląda następująco:

U=(α1,1α2,1α3,1α1,2α2,2α3,2α1,3α2,3α3,3)U^{\dagger} = \begin{pmatrix} \overline{\alpha_{1,1}} & \overline{\alpha_{2,1}} & \overline{\alpha_{3,1}} \\[1mm] \overline{\alpha_{1,2}} & \overline{\alpha_{2,2}} & \overline{\alpha_{3,2}} \\[1mm] \overline{\alpha_{1,3}} & \overline{\alpha_{2,3}} & \overline{\alpha_{3,3}} \end{pmatrix}

Mnożenie obu macierzy, ze sprzężeniem hermitowskim po lewej stronie, daje nam macierz:

(α1,1α2,1α3,1α1,2α2,2α3,2α1,3α2,3α3,3)(α1,1α1,2α1,3α2,1α2,2α2,3α3,1α3,2α3,3)=(α1,1α1,1+α2,1α2,1+α3,1α3,1α1,1α1,2+α2,1α2,2+α3,1α3,2α1,1α1,3+α2,1α2,3+α3,1α3,3α1,2α1,1+α2,2α2,1+α3,2α3,1α1,2α1,2+α2,2α2,2+α3,2α3,2α1,2α1,3+α2,2α2,3+α3,2α3,3α1,3α1,1+α2,3α2,1+α3,3α3,1α1,3α1,2+α2,3α2,2+α3,3α3,2α1,3α1,3+α2,3α2,3+α3,3α3,3)\begin{aligned} &\begin{pmatrix} \overline{\alpha_{1,1}} & \overline{\alpha_{2,1}} & \overline{\alpha_{3,1}} \\[1mm] \overline{\alpha_{1,2}} & \overline{\alpha_{2,2}} & \overline{\alpha_{3,2}} \\[1mm] \overline{\alpha_{1,3}} & \overline{\alpha_{2,3}} & \overline{\alpha_{3,3}} \end{pmatrix} \begin{pmatrix} \alpha_{1,1} & \alpha_{1,2} & \alpha_{1,3} \\[1mm] \alpha_{2,1} & \alpha_{2,2} & \alpha_{2,3} \\[1mm] \alpha_{3,1} & \alpha_{3,2} & \alpha_{3,3} \end{pmatrix}\\[4mm] \quad &= \begin{pmatrix} \overline{\alpha_{1,1}}\alpha_{1,1} + \overline{\alpha_{2,1}}\alpha_{2,1} + \overline{\alpha_{3,1}}\alpha_{3,1} & \overline{\alpha_{1,1}}\alpha_{1,2} + \overline{\alpha_{2,1}}\alpha_{2,2} + \overline{\alpha_{3,1}}\alpha_{3,2} & \overline{\alpha_{1,1}}\alpha_{1,3} + \overline{\alpha_{2,1}}\alpha_{2,3} + \overline{\alpha_{3,1}}\alpha_{3,3} \\[2mm] \overline{\alpha_{1,2}}\alpha_{1,1} + \overline{\alpha_{2,2}}\alpha_{2,1} + \overline{\alpha_{3,2}}\alpha_{3,1} & \overline{\alpha_{1,2}}\alpha_{1,2} + \overline{\alpha_{2,2}}\alpha_{2,2} + \overline{\alpha_{3,2}}\alpha_{3,2} & \overline{\alpha_{1,2}}\alpha_{1,3} + \overline{\alpha_{2,2}}\alpha_{2,3} + \overline{\alpha_{3,2}}\alpha_{3,3} \\[2mm] \overline{\alpha_{1,3}}\alpha_{1,1} + \overline{\alpha_{2,3}}\alpha_{2,1} + \overline{\alpha_{3,3}}\alpha_{3,1} & \overline{\alpha_{1,3}}\alpha_{1,2} + \overline{\alpha_{2,3}}\alpha_{2,2} + \overline{\alpha_{3,3}}\alpha_{3,2} & \overline{\alpha_{1,3}}\alpha_{1,3} + \overline{\alpha_{2,3}}\alpha_{2,3} + \overline{\alpha_{3,3}}\alpha_{3,3} \end{pmatrix} \end{aligned}

Jeżeli utworzymy trzy wektory z kolumn macierzy U,U,

ψ1=(α1,1α2,1α3,1),ψ2=(α1,2α2,2α3,2),ψ3=(α1,3α2,3α3,3),\vert \psi_1\rangle = \begin{pmatrix} \alpha_{1,1}\\ \alpha_{2,1}\\ \alpha_{3,1} \end{pmatrix}, \quad \vert \psi_2\rangle = \begin{pmatrix} \alpha_{1,2}\\ \alpha_{2,2}\\ \alpha_{3,2} \end{pmatrix}, \quad \vert \psi_3\rangle = \begin{pmatrix} \alpha_{1,3}\\ \alpha_{2,3}\\ \alpha_{3,3} \end{pmatrix},

to powyższy iloczyn możemy alternatywnie wyrazić w następujący sposób:

UU=(ψ1ψ1ψ1ψ2ψ1ψ3ψ2ψ1ψ2ψ2ψ2ψ3ψ3ψ1ψ3ψ2ψ3ψ3)U^{\dagger} U = \begin{pmatrix} \langle \psi_1\vert \psi_1 \rangle & \langle \psi_1\vert \psi_2 \rangle & \langle \psi_1\vert \psi_3 \rangle \\ \langle \psi_2\vert \psi_1 \rangle & \langle \psi_2\vert \psi_2 \rangle & \langle \psi_2\vert \psi_3 \rangle \\ \langle \psi_3\vert \psi_1 \rangle & \langle \psi_3\vert \psi_2 \rangle & \langle \psi_3\vert \psi_3 \rangle \end{pmatrix}

Odwołując się do równania (3),(3), widzimy teraz, że warunek, aby ta macierz była równa macierzy jednostkowej, jest równoważny orthonormalności zbioru {ψ1,ψ2,ψ3}.\{\vert\psi_1\rangle,\vert\psi_2\rangle,\vert\psi_3\rangle\}.

Argument ten uogólnia się na macierze unitarne dowolnego rozmiaru. Fakt, że wiersze macierzy tworzą bazę orthonormal wtedy i tylko wtedy, gdy macierz jest unitarna, wynika wtedy z faktu, że macierz jest unitarna wtedy i tylko wtedy, gdy jej transpozycja jest unitarna.

Biorąc pod uwagę opisaną powyżej równoważność, wraz z faktem, że każdy zbiór orthonormal można rozszerzyć do bazy orthonormal, otrzymujemy następujący użyteczny fakt: Mając dowolny zbiór orthonormal wektorów {ψ1,,ψm}\{\vert\psi_1\rangle,\ldots,\vert\psi_m\rangle\} pochodzących z nn-wymiarowej przestrzeni, istnieje macierz unitarna UU, której pierwszych mm kolumn stanowią wektory ψ1,,ψm.\vert\psi_1\rangle,\ldots,\vert\psi_m\rangle. Obrazowo, zawsze możemy znaleźć macierz unitarną tej postaci:

U=(ψ1ψ2ψmψm+1ψn).U = \left( \begin{array}{ccccccc} \rule{0.4pt}{10pt} & \rule{0.4pt}{10pt} & & \rule{0.4pt}{10pt} & \rule{0.4pt}{10pt} & & \rule{0.4pt}{10pt}\\ \vert\psi_1\rangle & \vert\psi_2\rangle & \cdots & \vert\psi_m\rangle & \vert\psi_{m+1}\rangle & \cdots & \vert\psi_n\rangle\\[2mm] \rule{0.4pt}{10pt} & \rule{0.4pt}{10pt} & & \rule{0.4pt}{10pt} & \rule{0.4pt}{10pt} & & \rule{0.4pt}{10pt} \end{array} \right).

Tutaj ostatnie nmn-m kolumn jest wypełnione dowolnym wyborem wektorów ψm+1,,ψn\vert\psi_{m+1}\rangle,\ldots,\vert\psi_n\rangle, które sprawiają, że {ψ1,,ψn}\{\vert\psi_1\rangle,\ldots,\vert\psi_n\rangle\} jest bazą orthonormal.

Projekcje i pomiary projekcyjne

Macierze projekcji

Macierz kwadratowa Π\Pi nazywana jest projekcją, jeśli spełnia dwie własności:

  1. Π=Π.\Pi = \Pi^{\dagger}.
  2. Π2=Π.\Pi^2 = \Pi.

Macierze spełniające pierwszy warunek — że są równe swojemu sprzężeniu hermitowskiemu — nazywane są macierzami hermitowskimi, a macierze spełniające drugi warunek — że ich kwadrat pozostaje niezmieniony — nazywane są macierzami idempotentnymi.

Dla ostrożności warto zaznaczyć, że słowo projekcja bywa czasem używane w odniesieniu do dowolnej macierzy spełniającej jedynie drugi warunek, lecz niekoniecznie pierwszy, a w takim przypadku zazwyczaj używa się terminu projekcja ortogonalna w odniesieniu do macierzy spełniających obie własności. W kontekście informacji i obliczeń kwantowych natomiast terminy projekcja oraz macierz projekcji zazwyczaj odnoszą się do macierzy spełniających oba warunki.

Przykładem projekcji jest macierz

Π=ψψ(4)\Pi = \vert \psi \rangle \langle \psi \vert \tag{4}

dla dowolnego wektora jednostkowego ψ.\vert \psi\rangle. Możemy zobaczyć, że ta macierz jest hermitowska w następujący sposób:

Π=(ψψ)=(ψ)(ψ)=ψψ=Π.\Pi^{\dagger} = \bigl( \vert \psi \rangle \langle \psi \vert \bigr)^{\dagger} = \bigl( \langle \psi \vert \bigr)^{\dagger}\bigl( \vert \psi \rangle \bigr)^{\dagger} = \vert \psi \rangle \langle \psi \vert = \Pi.

Tutaj, aby uzyskać drugą równość, skorzystaliśmy ze wzoru

(AB)=BA,(A B)^{\dagger} = B^{\dagger} A^{\dagger},

który jest zawsze prawdziwy dla dowolnych dwóch macierzy AA i BB, dla których iloczyn ABAB ma sens.

Aby zobaczyć, że macierz Π\Pi z (4)(4) jest idempotentna, możemy skorzystać z założenia, że ψ\vert\psi\rangle jest wektorem jednostkowym, tak że spełnia ψψ=1.\langle \psi \vert \psi\rangle = 1. Zatem mamy

Π2=(ψψ)2=ψψψψ=ψψ=Π.\Pi^2 = \bigl( \vert\psi\rangle\langle \psi\vert \bigr)^2 = \vert\psi\rangle\langle \psi\vert\psi\rangle\langle\psi\vert = \vert\psi\rangle\langle\psi\vert = \Pi.

Bardziej ogólnie, jeśli {ψ1,,ψm}\{\vert \psi_1\rangle,\ldots,\vert \psi_m\rangle\} jest dowolnym ortonormalnym zbiorem wektorów, to macierz

Π=k=1mψkψk(5)\Pi = \sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert \tag{5}

jest projekcją. Konkretnie mamy

Π=(k=1mψkψk)=k=1m(ψkψk)=k=1mψkψk=Π,\begin{aligned} \Pi^{\dagger} &= \biggl(\sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert\biggr)^{\dagger} \\ &= \sum_{k = 1}^m \bigl(\vert\psi_k\rangle\langle\psi_k\vert\bigr)^{\dagger} \\ &= \sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert\\ &= \Pi, \end{aligned}

oraz

Π2=(j=1mψjψj)(k=1mψkψk)=j=1mk=1mψjψjψkψk=k=1mψkψk=Π,\begin{aligned} \Pi^2 & = \biggl( \sum_{j = 1}^m \vert \psi_j\rangle \langle \psi_j \vert\Bigr)\Bigl(\sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert\biggr) \\ & = \sum_{j = 1}^m\sum_{k = 1}^m \vert \psi_j\rangle \langle \psi_j \vert \psi_k\rangle \langle \psi_k \vert \\ & = \sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert\\ & = \Pi, \end{aligned}

gdzie ortonormalność zbioru {ψ1,,ψm}\{\vert \psi_1\rangle,\ldots,\vert \psi_m\rangle\} implikuje przedostatnią równość.

W istocie wyczerpuje to wszystkie możliwości: każdą projekcję Π\Pi można zapisać w postaci (5)(5) dla pewnego wyboru zbioru ortonormalnego {ψ1,,ψm}.\{\vert \psi_1\rangle,\ldots,\vert \psi_m\rangle\}. (Z technicznego punktu widzenia macierz zerowa Π=0,\Pi=0, która jest projekcją, stanowi przypadek szczególny. Aby dopasować ją do ogólnej postaci (5),(5), musimy dopuścić możliwość, że suma jest pusta, co daje macierz zerową.)

Pomiary projekcyjne

Pojęcie pomiaru układu kwantowego jest bardziej ogólne niż tylko pomiary w bazie standardowej. Pomiary projective to pomiary opisywane przez zbiór projekcji, których suma jest równa macierzy jednostkowej. Symbolicznie, zbiór {Π0,,Πm1}\{\Pi_0,\ldots,\Pi_{m-1}\} macierzy projekcji opisuje pomiar projective, jeśli

Π0++Πm1=I.\Pi_0 + \cdots + \Pi_{m-1} = \mathbb{I}.

Kiedy taki pomiar jest wykonywany na układzie X\mathsf{X}, gdy znajduje się on w pewnym stanie ψ,\vert\psi\rangle, dzieją się dwie rzeczy:

  1. Dla każdego k{0,,m1},k\in\{0,\ldots,m-1\}, wynikiem pomiaru jest kk z prawdopodobieństwem równym

    Pr(wynikiem jest k)=Πkψ2.\operatorname{Pr}\bigl(\text{wynikiem jest $k$}\bigr) = \bigl\| \Pi_k \vert \psi \rangle \bigr\|^2.
  2. Niezależnie od tego, który wynik kk daje pomiar, stan układu X\mathsf{X} staje się

    ΠkψΠkψ.\frac{\Pi_k \vert\psi\rangle}{\bigl\|\Pi_k \vert\psi\rangle\bigr\|}.

Możemy również wybrać inne wyniki niż {0,,m1}\{0,\ldots,m-1\} dla pomiarów projective, jeśli tak wolimy. Bardziej ogólnie, dla dowolnego skończonego i niepustego zbioru Σ,\Sigma, jeśli mamy zbiór macierzy projekcji

{Πa:aΣ}\{\Pi_a:a\in\Sigma\}

spełniający warunek

aΣΠa=I,\sum_{a\in\Sigma} \Pi_a = \mathbb{I},

to zbiór ten opisuje pomiar projective, którego możliwe wyniki pokrywają się ze zbiorem Σ,\Sigma, gdzie reguły są takie same jak poprzednio:

  1. Dla każdego aΣ,a\in\Sigma, wynikiem pomiaru jest aa z prawdopodobieństwem równym

    Pr(wynikiem jest a)=Πaψ2.\operatorname{Pr}\bigl(\text{wynikiem jest $a$}\bigr) = \bigl\| \Pi_a \vert \psi \rangle \bigr\|^2.
  2. Niezależnie od tego, który wynik aa daje pomiar, stan układu X\mathsf{X} staje się

    ΠaψΠaψ.\frac{\Pi_a \vert\psi\rangle}{\bigl\|\Pi_a \vert\psi\rangle\bigr\|}.

Na przykład pomiary w bazie standardowej są równoważne pomiarom projective, gdzie Σ\Sigma jest zbiorem stanów klasycznych dowolnego układu X,\mathsf{X}, o którym mówimy, a naszym zbiorem macierzy projekcji jest {aa:aΣ}.\{\vert a\rangle\langle a\vert:a\in\Sigma\}.

Innym przykładem pomiaru projective, tym razem na dwóch kubitach (X,Y),(\mathsf{X},\mathsf{Y}), jest zbiór {Π0,Π1},\{\Pi_0,\Pi_1\}, gdzie

Π0=ϕ+ϕ++ϕϕ+ψ+ψ+iΠ1=ψψ.\Pi_0 = \vert \phi^+\rangle\langle \phi^+ \vert + \vert \phi^-\rangle\langle \phi^- \vert + \vert \psi^+\rangle\langle \psi^+ \vert \quad\text{i}\quad \Pi_1 = \vert\psi^-\rangle\langle\psi^-\vert.

Jeśli mamy wiele układów, które wspólnie znajdują się w pewnym stanie kwantowym, i pomiar projective jest wykonywany tylko na jednym z tych układów, działanie jest podobne do tego, co mieliśmy w przypadku pomiarów w bazie standardowej — i w rzeczywistości możemy teraz opisać to działanie znacznie prościej niż wcześniej.

Aby być precyzyjnym, załóżmy, że mamy dwa układy (X,Y)(\mathsf{X},\mathsf{Y}) w stanie kwantowym ψ,\vert\psi\rangle, a pomiar projective opisany przez zbiór {Πa:aΣ}\{\Pi_a : a\in\Sigma\} jest wykonywany na układzie X,\mathsf{X}, podczas gdy z układem Y\mathsf{Y} nie dzieje się nic. Wykonanie tego jest wówczas równoważne wykonaniu pomiaru projective opisanego przez zbiór

{ΠaI:aΣ}\bigl\{ \Pi_a \otimes \mathbb{I} \,:\, a\in\Sigma\bigr\}

na układzie złożonym (X,Y).(\mathsf{X},\mathsf{Y}). Każdy wynik pomiaru aa pojawia się z prawdopodobieństwem

(ΠaI)ψ2,\bigl\| (\Pi_a \otimes \mathbb{I})\vert \psi\rangle \bigr\|^2,

a pod warunkiem uzyskania wyniku a,a, stan układu złożonego (X,Y)(\mathsf{X},\mathsf{Y}) staje się

(ΠaI)ψ(ΠaI)ψ.\frac{(\Pi_a \otimes \mathbb{I})\vert \psi\rangle}{\bigl\| (\Pi_a \otimes \mathbb{I})\vert \psi\rangle \bigr\|}.

Implementacja pomiarów projective

Dowolne pomiary projective mogą zostać zaimplementowane przy użyciu operacji unitarnych, pomiarów w bazie standardowej oraz dodatkowego systemu roboczego, co zostanie teraz wyjaśnione.

Załóżmy, że X\mathsf{X} jest systemem, a {Π0,,Πm1}\{\Pi_0,\ldots,\Pi_{m-1}\} jest pomiarem projective na X.\mathsf{X}. Możemy łatwo uogólnić tę dyskusję na pomiary projective mające różne zbiory wyników, ale dla wygody i prostoty założymy, że zbiór możliwych wyników naszego pomiaru to {0,,m1}.\{0,\ldots,m-1\}.

Zauważmy wyraźnie, że mm niekoniecznie jest równe liczbie klasycznych stanów X\mathsf{X} — niech nn oznacza liczbę klasycznych stanów X,\mathsf{X}, co oznacza, że każda macierz Πk\Pi_k jest macierzą projekcji n×n.n\times n.

Ponieważ zakładamy, że {Π0,Πm1}\{\Pi_0\ldots,\Pi_{m-1}\} reprezentuje pomiar projective, musi zachodzić

k=0m1Πk=In.\sum_{k = 0}^{m-1} \Pi_k = \mathbb{I}_n.

Naszym celem jest wykonanie procesu, który ma taki sam efekt jak wykonanie tego pomiaru projective na X,\mathsf{X}, ale przy użyciu wyłącznie operacji unitarnych oraz pomiarów w bazie standardowej.

W tym celu skorzystamy z dodatkowego systemu roboczego Y,\mathsf{Y}, a konkretnie przyjmiemy, że klasyczny zbiór stanów Y\mathsf{Y} to {0,,m1},\{0,\ldots,m-1\}, czyli taki sam jak zbiór wyników pomiaru projective. Pomysł polega na tym, że wykonamy pomiar w bazie standardowej na Y\mathsf{Y} i zinterpretujemy wynik tego pomiaru jako równoważny wynikowi pomiaru projective na X.\mathsf{X}. Będziemy musieli założyć, że Y\mathsf{Y} jest zainicjalizowany do pewnego ustalonego stanu, którym wybierzemy 0.\vert 0\rangle. (Każdy inny wybór ustalonego wektora stanu kwantowego mógłby zadziałać, ale wybór 0\vert 0\rangle znacznie upraszcza poniższe wyjaśnienie.)

Oczywiście, aby pomiar Y\mathsf{Y} w bazie standardowej mógł powiedzieć nam cokolwiek o X,\mathsf{X}, będziemy musieli umożliwić jakąś interakcję między X\mathsf{X} a Y\mathsf{Y} przed pomiarem Y,\mathsf{Y}, wykonując operację unitarną na systemie (Y,X).(\mathsf{Y},\mathsf{X}). Rozważmy najpierw tę macierz:

M=k=0m1k0Πk.M = \sum_{k = 0}^{m-1} \vert k \rangle \langle 0 \vert \otimes \Pi_k.

Wyrażona jawnie jako tak zwana macierz blokowa, która w istocie jest macierzą macierzy interpretowaną jako jedna, większa macierz, MM wygląda tak:

M=(Π000Π100Πm100).M = \begin{pmatrix} \Pi_0 & 0 & \cdots & 0\\[1mm] \Pi_1 & 0 & \cdots & 0\\[1mm] \vdots & \vdots & \ddots & \vdots\\[1mm] \Pi_{m-1} & 0 & \cdots & 0 \end{pmatrix}.

Tutaj każde 00 reprezentuje macierz n×nn\times n wypełnioną w całości zerami, tak że cała macierz MM jest macierzą nm×nm.nm\times nm.

Otóż MM z pewnością nie jest macierzą unitarną (chyba że m=1,m=1, w którym to przypadku Π0=I,\Pi_0 = \mathbb{I}, co daje M=IM = \mathbb{I} w tym trywialnym przypadku), ponieważ macierze unitarne nie mogą mieć żadnych kolumn (ani wierszy) złożonych wyłącznie z 0;0; macierze unitarne mają kolumny tworzące bazy ortonormalne, a wektor samych zer nie jest wektorem jednostkowym.

Jednakże prawdą jest, że pierwsze nn kolumn MM jest ortonormalnych, co wynika z założenia, że {Π0,,Πm1}\{\Pi_0,\ldots,\Pi_{m-1}\} jest pomiarem. Aby zweryfikować to stwierdzenie, zauważmy, że dla każdego j{0,,n1}j\in\{0,\ldots,n-1\} wektor utworzony przez kolumnę numer jj macierzy MM jest następujący:

ψj=M0,j=k=0m1kΠkj.\vert \psi_j\rangle = M \vert 0, j\rangle = \sum_{k = 0}^{m-1} \vert k \rangle \otimes \Pi_k \vert j\rangle.

Zauważmy, że numerujemy tutaj kolumny zaczynając od kolumny 0.0. Wzięcie iloczynu skalarnego kolumny ii z kolumną jj dla i,j{0,,n1}i,j\in\{0,\ldots,n-1\} daje

ψiψj=(k=0m1kΠki)(l=0m1lΠlj)=k=0m1l=0m1kliΠkΠlj=k=0m1iΠkΠkj=k=0m1iΠkj=iIj={1i=j0ij,\begin{aligned} \langle \psi_i \vert \psi_j \rangle & = \biggl(\sum_{k = 0}^{m-1} \vert k \rangle \otimes \Pi_k \vert i\rangle\biggr)^{\dagger} \biggl(\sum_{l = 0}^{m-1} \vert l \rangle \otimes \Pi_l \vert j\rangle\biggr) \\ & = \sum_{k = 0}^{m-1} \sum_{l = 0}^{m-1} \langle k \vert l \rangle \langle i \vert \Pi_k \Pi_l \vert j\rangle\\ & = \sum_{k = 0}^{m-1} \langle i \vert \Pi_k \Pi_k \vert j\rangle\\ & = \sum_{k = 0}^{m-1} \langle i \vert \Pi_k \vert j\rangle\\ & = \langle i \vert \mathbb{I} \vert j \rangle\\ & = \begin{cases} 1 & i = j\\ 0 & i\neq j, \end{cases} \end{aligned}

co jest tym, co mieliśmy wykazać.

Zatem, ponieważ pierwsze nn kolumn macierzy MM jest ortonormalne, możemy zastąpić wszystkie pozostałe zerowe wpisy innym wyborem wpisów będących liczbami zespolonymi, tak aby cała macierz była unitarna.

U=(Π0??Π1??Πm1??)U = \begin{pmatrix} \Pi_0 & \fbox{?} & \cdots & \fbox{?}\\[1mm] \Pi_1 & \fbox{?} & \cdots & \fbox{?}\\[1mm] \vdots & \vdots & \ddots & \vdots\\[1mm] \Pi_{m-1} & \fbox{?} & \cdots & \fbox{?} \end{pmatrix}

Jeśli dane są nam macierze Π0,,Πm1,\Pi_0,\ldots,\Pi_{m-1}, możemy obliczyć odpowiednie macierze wypełniające bloki oznaczone ?\fbox{?} w równaniu — używając procesu Grama–Schmidta — ale dla potrzeb tej dyskusji nie ma znaczenia, jakie konkretnie są to macierze.

Na koniec możemy opisać proces pomiaru: najpierw wykonujemy UU na połączonym systemie (Y,X),(\mathsf{Y},\mathsf{X}), a następnie mierzymy Y\mathsf{Y} względem pomiaru w bazie standardowej. Dla dowolnego stanu ϕ\vert \phi \rangle systemu X\mathsf{X} otrzymujemy stan

U(0ϕ)=M(0ϕ)=k=0m1kΠkϕ,U \bigl( \vert 0\rangle \vert \phi\rangle\bigr) = M \bigl( \vert 0\rangle \vert \phi\rangle\bigr) = \sum_{k = 0}^{m-1} \vert k\rangle \otimes \Pi_k \vert\phi\rangle,

gdzie pierwsza równość wynika z faktu, że UU i MM zgadzają się na swoich pierwszych nn kolumnach. Gdy wykonujemy pomiar projective na Y,\mathsf{Y}, otrzymujemy każdy wynik kk z prawdopodobieństwem

Πkϕ2,\bigl\| \Pi_k \vert \phi\rangle \bigr\|^2,

w którym to przypadku stan (Y,X)(\mathsf{Y},\mathsf{X}) staje się

kΠkϕΠkϕ.\vert k\rangle \otimes \frac{\Pi_k \vert \phi\rangle}{\bigl\| \Pi_k \vert \phi\rangle \bigr\|}.