Przejdź do głównej treści

Równoważność reprezentacji

Omówiliśmy dotychczas trzy różne sposoby matematycznej reprezentacji kanałów, a mianowicie reprezentacje Stinespringa, reprezentacje Krausa oraz reprezentacje Choi. Mamy też definicję kanału, która stwierdza, że kanał to liniowe odwzorowanie, które zawsze przekształca macierze gęstości w macierze gęstości, nawet gdy jest stosowane tylko do części układu złożonego. Pozostała część lekcji jest poświęcona matematycznemu dowodowi, że te trzy reprezentacje są równoważne i precyzyjnie oddają tę definicję.

Przegląd dowodu

Naszym celem jest ustalenie równoważności zbioru czterech stwierdzeń i zaczniemy od ich precyzyjnego sformułowania. Wszystkie cztery stwierdzenia podlegają tym samym konwencjom, które były używane w całej lekcji, a mianowicie że Φ\Phi jest liniowym odwzorowaniem z macierzy kwadratowych do macierzy kwadratowych, wiersze i kolumny macierzy wejściowych zostały odwzorowane na stany klasyczne układu X\mathsf{X} (układ wejściowy), a wiersze i kolumny macierzy wyjściowych zostały odwzorowane na stany klasyczne układu Y\mathsf{Y} (układ wyjściowy).

  1. Φ\Phi jest kanałem z X\mathsf{X} do Y.\mathsf{Y}. Czyli Φ\Phi zawsze przekształca macierze gęstości w macierze gęstości, nawet gdy działa na jedną część większego układu złożonego.

  2. Macierz Choi J(Φ)J(\Phi) jest dodatnio półokreślona i spełnia warunek TrY(J(Φ))=IX.\operatorname{Tr}_{\mathsf{Y}}(J(\Phi)) = \mathbb{I}_{\mathsf{X}}.

  3. Istnieje reprezentacja Krausa dla Φ.\Phi. Czyli istnieją macierze A0,,AN1A_0,\ldots,A_{N-1}, dla których równanie Φ(ρ)=k=0N1AkρAk\Phi(\rho) = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger} jest prawdziwe dla każdego wejścia ρ,\rho, i które spełniają warunek k=0N1AkAk=IX.\sum_{k = 0}^{N-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}.

  4. Istnieje reprezentacja Stinespringa dla Φ.\Phi. Czyli istnieją układy W\mathsf{W} i G\mathsf{G}, dla których pary (W,X)(\mathsf{W},\mathsf{X}) i (G,Y)(\mathsf{G},\mathsf{Y}) mają tę samą liczbę stanów klasycznych, oraz macierz unitarna UU reprezentująca operację unitarną z (W,X)(\mathsf{W},\mathsf{X}) do (G,Y),(\mathsf{G},\mathsf{Y}), taka że Φ(ρ)=TrG(U(00ρ)U).\Phi(\rho) = \operatorname{Tr}_{\mathsf{G}}\bigl( U (\vert 0\rangle\langle 0 \vert \otimes \rho) U^{\dagger} \bigr).

Dowód działa w ten sposób, że udowadnia się cykl implikacji: pierwsze stwierdzenie z naszej listy implikuje drugie, drugie implikuje trzecie, trzecie implikuje czwarte, a czwarte stwierdzenie implikuje pierwsze. To ustala, że wszystkie cztery stwierdzenia są równoważne — co oznacza, że dla danego wyboru Φ\Phi są one albo wszystkie prawdziwe, albo wszystkie fałszywe — ponieważ implikacje można przechodnio przenosić z dowolnego jednego stwierdzenia do dowolnego innego.

Jest to powszechna strategia przy dowodzeniu równoważności zbioru stwierdzeń, a przydatnym trikiem w takim kontekście jest takie ustawienie implikacji, aby były one jak najłatwiejsze do udowodnienia. Tak jest i w tym przypadku — i w rzeczywistości spotkaliśmy już dwie z czterech implikacji.

Od kanałów do macierzy Choi

Odnosząc się do powyższych stwierdzeń przez ich numery, pierwszą implikacją do udowodnienia jest 1 \Rightarrow 2. Ta implikacja była już omawiana w kontekście stanu Choi kanału. Tutaj podsumujemy szczegóły matematyczne.

Załóżmy, że zbiór stanów klasycznych układu wejściowego X\mathsf{X} to Σ\Sigma i niech n=Σ.n = \vert\Sigma\vert. Rozważmy sytuację, w której Φ\Phi jest stosowane do drugiej z dwóch kopii X\mathsf{X} razem w stanie

ψ=1naΣaa,\vert \psi \rangle = \frac{1}{\sqrt{n}} \sum_{a \in \Sigma} \vert a \rangle \otimes \vert a \rangle,

który jako macierz gęstości dany jest przez

ψψ=1na,bΣabab.\vert \psi \rangle \langle \psi \vert = \frac{1}{n} \sum_{a,b \in \Sigma} \vert a\rangle\langle b \vert \otimes \vert a\rangle\langle b \vert.

Wynik można zapisać jako

(IdΦ)(ψψ)=1na,b=0n1abΦ(ab)=J(Φ)n,(\operatorname{Id}\otimes \,\Phi) \bigl(\vert \psi \rangle \langle \psi \vert\bigr) = \frac{1}{n} \sum_{a,b = 0}^{n-1} \vert a\rangle\langle b \vert \otimes \Phi\bigl(\vert a\rangle\langle b \vert\bigr) = \frac{J(\Phi)}{n},

i zgodnie z założeniem, że Φ\Phi jest kanałem, musi to być macierz gęstości. Jak wszystkie macierze gęstości, musi ona być dodatnio półokreślona, a mnożenie macierzy dodatnio półokreślonej przez dodatnią liczbę rzeczywistą daje kolejną macierz dodatnio półokreśloną, a zatem J(Φ)0.J(\Phi) \geq 0.

Co więcej, przy założeniu, że Φ\Phi jest kanałem, musi ono zachowywać ślad, a zatem

TrY(J(Φ))=a,bΣTr(Φ(ab))ab=a,bΣTr(ab)ab=aΣaa=IX.\begin{aligned} \operatorname{Tr}_{\mathsf{Y}} (J(\Phi)) & = \sum_{a,b\in\Sigma} \operatorname{Tr}\bigl(\Phi( \vert a\rangle\langle b \vert)\bigr) \, \vert a\rangle\langle b \vert\\ & = \sum_{a,b\in\Sigma} \operatorname{Tr}\bigl(\vert a\rangle\langle b \vert\bigr) \, \vert a\rangle\langle b \vert\\ & = \sum_{a\in\Sigma} \vert a\rangle\langle a \vert\\ & = \mathbb{I}_{\mathsf{X}}. \end{aligned}

Od reprezentacji Choi do Krausa

Druga implikacja, ponownie odnosząc się do stwierdzeń z naszej listy za pomocą ich numerów, to 2 \Rightarrow 3. Dla jasności, ignorujemy pozostałe stwierdzenia — a w szczególności nie możemy zakładać, że Φ\Phi jest kanałem. Wszystko, czym dysponujemy, to fakt, że Φ\Phi jest odwzorowaniem liniowym, którego reprezentacja Choi spełnia J(Φ)0J(\Phi) \geq 0 oraz TrY(J(Φ))=IX.\operatorname{Tr}_{\mathsf{Y}} (J(\Phi)) = \mathbb{I}_{\mathsf{X}}.

To jednak wystarczy, aby stwierdzić, że Φ\Phi ma reprezentację Krausa

Φ(ρ)=k=0N1AkρAk\Phi(\rho) = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger}

dla której spełniony jest warunek

k=0N1AkAk=IX\sum_{k = 0}^{N-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}

.

Zaczynamy od krytycznie ważnego założenia, że J(Φ)J(\Phi) jest dodatnio półokreślona, co oznacza, że można ją wyrazić w postaci

J(Φ)=k=0N1ψkψk(1)J(\Phi) = \sum_{k = 0}^{N-1} \vert \psi_k \rangle \langle \psi_k \vert \tag{1}

dla pewnego wyboru wektorów ψ0,,ψN1.\vert\psi_0\rangle,\ldots,\vert\psi_{N-1}\rangle. Ogólnie istnieje wiele sposobów, aby to zrobić — i faktycznie odzwierciedla to bezpośrednio swobodę, jaką mamy przy wyborze reprezentacji Krausa dla Φ.\Phi.

Jednym ze sposobów otrzymania takiego wyrażenia jest najpierw użycie twierdzenia spektralnego, aby napisać

J(Φ)=k=0N1λkγkγk,J(\Phi) = \sum_{k = 0}^{N-1} \lambda_k \vert \gamma_k \rangle \langle \gamma_k \vert,

gdzie λ0,,λN1\lambda_0,\ldots,\lambda_{N-1} są wartościami własnymi J(Φ)J(\Phi) (które muszą być nieujemnymi liczbami rzeczywistymi, ponieważ J(Φ)J(\Phi) jest dodatnio półokreślona), a γ0,,γN1\vert\gamma_0\rangle,\ldots,\vert\gamma_{N-1}\rangle są jednostkowymi wektorami własnymi odpowiadającymi wartościom własnym λ0,,λN1.\lambda_0,\ldots,\lambda_{N-1}.

Zauważmy, że choć nie ma swobody w wyborze wartości własnych (z wyjątkiem ich uporządkowania), to istnieje swoboda w wyborze wektorów własnych, szczególnie gdy są wartości własne o krotności większej niż jeden. Zatem nie jest to jednoznaczne wyrażenie J(Φ)J(\Phi) — po prostu zakładamy, że mamy jedno takie wyrażenie. Niezależnie od tego, ponieważ wartości własne są nieujemnymi liczbami rzeczywistymi, mają one nieujemne pierwiastki kwadratowe, więc możemy wybrać

ψk=λkγk\vert\psi_k\rangle = \sqrt{\lambda_k} \vert \gamma_k\rangle

dla każdego k=0,,N1,k = 0,\ldots,N-1, aby otrzymać wyrażenie postaci (1).(1).

Nie jest jednak istotne, aby wyrażenie (1)(1) pochodziło z rozkładu spektralnego w ten sposób, a w szczególności wektory ψ0,,ψN1\vert\psi_0\rangle,\ldots,\vert\psi_{N-1}\rangle nie muszą być ogólnie ortogonalne. Warto jednak zauważyć, że możemy wybrać te wektory jako ortogonalne, jeśli tego chcemy — a ponadto nigdy nie potrzebujemy, aby NN było większe niż nmnm (przypominając, że nn i mm oznaczają liczby klasycznych stanów odpowiednio X\mathsf{X} i Y\mathsf{Y}).

Następnie każdy z wektorów ψ0,,ψN1\vert\psi_0\rangle,\ldots,\vert\psi_{N-1}\rangle można dalej rozłożyć jako

ψk=aΣaϕk,a,\vert\psi_k\rangle = \sum_{a\in\Sigma} \vert a\rangle \otimes \vert \phi_{k,a}\rangle,

gdzie wektory {ϕk,a}\{ \vert \phi_{k,a}\rangle \} mają wpisy odpowiadające klasycznym stanom Y\mathsf{Y} i mogą być jawnie wyznaczone równaniem

ϕk,a=(aIY)ψk\vert \phi_{k,a}\rangle = \bigl( \langle a \vert \otimes \mathbb{I}_{\mathsf{Y}}\bigr) \vert \psi_k\rangle

dla każdego aΣa\in\Sigma i k=0,,N1.k=0,\ldots,N-1. Chociaż ψ0,,ψN1\vert\psi_0\rangle,\ldots,\vert\psi_{N-1}\rangle nie muszą być wektorami jednostkowymi, jest to ten sam proces, którego użylibyśmy do analizy tego, co by się stało, gdyby na układzie X\mathsf{X} dokonano pomiaru w bazie standardowej, mając dany wektor stanu kwantowego pary (X,Y).(\mathsf{X},\mathsf{Y}).

Teraz dochodzimy do sztuczki, dzięki której ta część dowodu działa. Definiujemy nasze macierze Krausa A0,,AN1A_0,\ldots,A_{N-1} zgodnie z poniższym równaniem.

Ak=aΣϕk,aaA_k = \sum_{a\in\Sigma} \vert \phi_{k,a}\rangle\langle a \vert

Możemy myśleć o tej formule czysto symbolicznie: a\vert a\rangle skutecznie zostaje odwrócone, tworząc a\langle a\vert i przeniesione na prawą stronę, tworząc macierz. Dla celów weryfikacji dowodu formuła jest wszystkim, czego potrzebujemy.

Istnieje jednak prosty i intuicyjny związek między wektorem ψk\vert\psi_k\rangle a macierzą Ak,A_k, który polega na tym, że wektoryzując AkA_k otrzymujemy ψk.\vert\psi_k\rangle. Wektoryzacja AkA_k oznacza, że układamy kolumny jedna na drugiej (z lewą kolumną na górze, przechodząc do prawej na dole), aby utworzyć wektor. Na przykład, jeśli X\mathsf{X} i Y\mathsf{Y} są oba kubitami, i dla pewnego wyboru kk mamy

ψk=α0000+α0101+α1010+α1111=(α00α01α10α11),\begin{aligned} \vert\psi_k\rangle & = \alpha_{00} \vert 0\rangle \otimes \vert 0\rangle + \alpha_{01} \vert 0\rangle \otimes \vert 1\rangle + \alpha_{10} \vert 1\rangle \otimes \vert 0\rangle + \alpha_{11} \vert 1\rangle \otimes \vert 1\rangle\\[2mm] & = \begin{pmatrix} \alpha_{00} \\[1mm] \alpha_{01} \\[1mm] \alpha_{10} \\[1mm] \alpha_{11} \end{pmatrix}, \end{aligned}

to

Ak=α0000+α0110+α1001+α1111=(α00α10α01α11).\begin{aligned} A_k & = \alpha_{00} \vert 0\rangle\langle 0\vert + \alpha_{01} \vert 1\rangle\langle 0\vert + \alpha_{10} \vert 0\rangle\langle 1\vert + \alpha_{11} \vert 1\rangle\langle 1\vert\\[2mm] & = \begin{pmatrix} \alpha_{00} & \alpha_{10}\\[1mm] \alpha_{01} & \alpha_{11} \end{pmatrix}. \end{aligned}

(Uwaga: czasami wektoryzacja macierzy definiowana jest w nieco inny sposób, a mianowicie przez transponowanie wierszy macierzy i ułożenie ich jeden na drugim w celu utworzenia wektora kolumnowego.)

Najpierw zweryfikujemy, że ten wybór macierzy Krausa poprawnie opisuje odwzorowanie Φ,\Phi, a następnie sprawdzimy pozostały wymagany warunek. Aby zachować porządek, zdefiniujmy nowe odwzorowanie Ψ\Psi w następujący sposób.

Ψ(ρ)=k=0N1AkρAk\Psi(\rho) = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger}

Naszym celem jest zatem zweryfikowanie, że Ψ=Φ.\Psi = \Phi.

Możemy to zrobić porównując reprezentacje Choi tych odwzorowań. Reprezentacje Choi są wierne, zatem Ψ=Φ\Psi = \Phi wtedy i tylko wtedy, gdy J(Φ)=J(Ψ).J(\Phi) = J(\Psi). W tym momencie możemy po prostu obliczyć J(Ψ)J(\Psi) korzystając z wyrażeń

ψk=aΣaϕk,aandAk=aΣϕk,aa\vert\psi_k\rangle = \sum_{a\in\Sigma} \vert a\rangle \otimes \vert \phi_{k,a}\rangle \quad\text{and}\quad A_k = \sum_{a\in\Sigma} \vert \phi_{k,a}\rangle\langle a \vert

wraz z biliniowością iloczynów tensorowych w celu uproszczenia.

J(Ψ)=a,bΣabk=0N1AkabAk=a,bΣabk=0N1ϕk,aϕk,b=k=0N1(aΣaϕk,a)(bΣbϕk,b)=k=0N1ψkψk=J(Φ)\begin{aligned} J(\Psi) & = \sum_{a,b\in\Sigma} \vert a\rangle \langle b \vert \otimes \sum_{k = 0}^{N-1} A_k \vert a\rangle \langle b \vert A_k^{\dagger}\\[2mm] & = \sum_{a,b\in\Sigma} \vert a\rangle \langle b \vert \otimes \sum_{k = 0}^{N-1} \vert \phi_{k,a} \rangle \langle \phi_{k,b} \vert \\[2mm] & = \sum_{k = 0}^{N-1} \biggl(\sum_{a\in\Sigma} \vert a\rangle \otimes \vert \phi_{k,a} \rangle\biggr) \biggl(\sum_{b\in\Sigma} \langle b\vert \otimes \langle \phi_{k,b} \vert\biggr)\\[2mm] & = \sum_{k = 0}^{N-1} \vert \psi_k \rangle \langle \psi_k \vert \\[2mm] & = J(\Phi) \end{aligned}

A zatem nasze macierze Krausa poprawnie opisują Φ.\Phi.

Pozostaje sprawdzić wymagany warunek dotyczący A0,,AN1,A_0,\ldots,A_{N-1}, który okazuje się być równoważny założeniu TrY(J(Φ))=IX\operatorname{Tr}_{\mathsf{Y}}(J(\Phi)) = \mathbb{I}_{\mathsf{X}} (z którego dotąd nie korzystaliśmy). Pokażemy następującą zależność:

(k=0N1AkAk)T=TrY(J(Φ))(2)\Biggl( \sum_{k = 0}^{N-1} A_k^{\dagger} A_k \Biggr)^{T} = \operatorname{Tr}_{\mathsf{Y}}(J(\Phi)) \tag{2}

(gdzie po lewej stronie mamy na myśli transpozycję macierzową).

Zaczynając od lewej strony, możemy najpierw zauważyć, że

(k=0N1AkAk)T=(k=0N1a,bΣbϕk,bϕk,aa)T=k=0N1a,bΣϕk,bϕk,aab.\begin{aligned} \Biggl(\sum_{k = 0}^{N-1} A_k^{\dagger} A_k\Biggr)^T & = \Biggl(\sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \vert b \rangle \langle \phi_{k,b} \vert \phi_{k,a} \rangle \langle a \vert\Biggr)^T\\ & = \sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \langle \phi_{k,b} \vert \phi_{k,a} \rangle \vert a \rangle \langle b \vert. \end{aligned}

Ostatnia równość wynika z faktu, że transpozycja jest liniowa i przekształca ba\vert b\rangle\langle a \vert w ab.\vert a\rangle\langle b \vert.

Przechodząc do prawej strony naszego równania, mamy

J(Φ)=k=0N1ψkψk=k=0N1a,bΣabϕk,aϕk,bJ(\Phi) = \sum_{k = 0}^{N-1} \vert \psi_k\rangle\langle\psi_k \vert = \sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \vert a\rangle \langle b \vert \otimes \vert\phi_{k,a}\rangle\langle \phi_{k,b} \vert

a zatem

TrY(J(Φ))=k=0N1a,bΣTr(ϕk,aϕk,b)ab=k=0N1a,bΣϕk,bϕk,aab.\begin{aligned} \operatorname{Tr}_{\mathsf{Y}}(J(\Phi)) & = \sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \operatorname{Tr}\bigl(\vert\phi_{k,a}\rangle\langle \phi_{k,b} \vert \bigr)\, \vert a\rangle \langle b \vert\\ & = \sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \langle \phi_{k,b} \vert \phi_{k,a} \rangle \vert a \rangle \langle b \vert. \end{aligned}

Otrzymaliśmy ten sam wynik, a zatem równanie (2)(2) zostało zweryfikowane. Wynika stąd, na mocy założenia TrY(J(Φ))=IX,\operatorname{Tr}_{\mathsf{Y}} (J(\Phi)) = \mathbb{I}_{\mathsf{X}}, że

(k=0N1AkAk)T=IX\Biggl(\sum_{k = 0}^{N-1} A_k^{\dagger} A_k\Biggr)^T = \mathbb{I}_{\mathsf{X}}

a zatem, ponieważ macierz jednostkowa jest równa swojej własnej transpozycji, wymagany warunek jest spełniony.

k=0N1AkAk=IX\sum_{k = 0}^{N-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}

Od reprezentacji Krausa do Stinespringa

Załóżmy teraz, że mamy reprezentację Krausa odwzorowania

Φ(ρ)=k=0N1AkρAk\Phi(\rho) = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger}

dla której

k=0N1AkAk=IX.\sum_{k = 0}^{N-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}.

Naszym celem jest znalezienie reprezentacji Stinespringa dla Φ.\Phi.

Najpierw chcielibyśmy wybrać system śmietnikowy G\mathsf{G} tak, aby jego klasycznym zbiorem stanów był {0,,N1}.\{0,\ldots,N-1\}. Aby jednak (W,X)(\mathsf{W},\mathsf{X}) i (G,Y)(\mathsf{G},\mathsf{Y}) miały ten sam rozmiar, musi zachodzić, że nn dzieli mN,m N, co pozwala nam przyjąć, że W\mathsf{W} ma stany klasyczne {0,,d1}\{0,\ldots,d-1\} dla d=mN/n.d = mN/n.

Dla dowolnego wyboru n,n, mm i NN może się zdarzyć, że mN/nmN/n nie jest liczbą całkowitą, więc w rzeczywistości nie mamy swobody wyboru G\mathsf{G} tak, aby jego klasycznym zbiorem stanów był {0,,N1}.\{0,\ldots,N-1\}. Zawsze jednak możemy dowolnie zwiększyć NN w reprezentacji Krausa, wybierając Ak=0A_k = 0 dla tylu dodatkowych wartości k,k, ilu sobie życzymy.

Zatem, jeśli w sposób milczący założymy, że mN/nmN/n jest liczbą całkowitą, co jest równoważne temu, że NN jest wielokrotnością m/gcd(n,m),m/\operatorname{gcd}(n,m), to mamy swobodę wyboru G\mathsf{G} tak, aby jego klasycznym zbiorem stanów był {0,,N1}.\{0,\ldots,N-1\}. W szczególności, jeśli zachodzi N=nm,N = nm, to możemy przyjąć, że W\mathsf{W} ma m2m^2 stanów klasycznych.

Pozostaje wybrać U,U, a zrobimy to, dopasowując następujący wzorzec.

U=(A0??A1??AN1??)U = \begin{pmatrix} A_{0} & \fbox{?} & \cdots & \fbox{?} \\[1mm] A_{1} & \fbox{?} & \cdots & \fbox{?} \\[1mm] \vdots & \vdots & \ddots & \vdots\\[1mm] A_{N-1} & \fbox{?} & \cdots & \fbox{?} \end{pmatrix}

Żeby było jasne, ten wzorzec ma sugerować macierz blokową, w której każdy blok (łącznie z A0,,AN1,A_{0},\ldots,A_{N-1}, jak również z blokami oznaczonymi znakiem zapytania) ma mm wierszy i nn kolumn. Jest NN wierszy bloków, co oznacza, że jest d=mN/nd = mN/n kolumn bloków.

Wyrażone w postaci bardziej formalnej, zdefiniujemy UU jako

U=k=0N1j=0d1kjMk,j=(M0,0M0,1M0,d1M1,0M1,1M1,d1MN1,0MN1,1MN1,d1)\begin{aligned} U & = \sum_{k=0}^{N-1} \sum_{j=0}^{d-1} \vert k \rangle \langle j \vert \otimes M_{k,j} \\[4mm] & = \begin{pmatrix} M_{0,0} & M_{0,1} & \cdots & M_{0,d-1} \\[1mm] M_{1,0} & M_{1,1} & \cdots & M_{1,d-1} \\[1mm] \vdots & \vdots & \ddots & \vdots\\[1mm] M_{N-1,0} & M_{N-1,1} & \cdots & M_{N-1,d-1} \end{pmatrix} \end{aligned}

gdzie każda macierz Mk,jM_{k,j} ma mm wierszy i nn kolumn, a w szczególności przyjmiemy Mk,0=AkM_{k,0} = A_k dla k=0,,N1.k = 0,\ldots,N-1.

Musi to być macierz unitarna, a bloki oznaczone znakiem zapytania, czyli równoważnie Mk,jM_{k,j} dla j>0,j>0, należy dobrać z tym na uwadze — jednak poza tym, że umożliwiają one, aby UU było unitarne, bloki oznaczone znakiem zapytania nie będą miały żadnego znaczenia dla dowodu.

Odłóżmy na chwilę na bok kwestię tego, czy UU jest unitarne, i skupmy się na wyrażeniu

TrG(U(00Wρ)U)\operatorname{Tr}_{\mathsf{G}} \bigl( U (\vert 0\rangle \langle 0 \vert_{\mathsf{W}} \otimes \rho)U^{\dagger}\bigr)

które opisuje stan wyjściowy Y\mathsf{Y} przy stanie wejściowym ρ\rho systemu X\mathsf{X} w naszej reprezentacji Stinespringa. Alternatywnie możemy zapisać

U(00ρ)U=U(0IW)ρ(0IW)U,U(\vert 0\rangle\langle 0 \vert \otimes \rho)U^{\dagger} = U(\vert 0\rangle\otimes\mathbb{I}_{\mathsf{W}}) \rho (\langle 0\vert \otimes \mathbb{I}_{\mathsf{W}}) U^{\dagger},

i widzimy z naszego wyboru U,U, że

U(0IW)=k=0N1kAk.U(\vert 0\rangle\otimes\mathbb{I}_{\mathsf{W}}) = \sum_{k = 0}^{N-1} \vert k\rangle \otimes A_k.

W związku z tym otrzymujemy

U(00ρ)U=j,k=0N1kjAkρAj,U(\vert 0\rangle\langle 0 \vert \otimes \rho)U^{\dagger} = \sum_{j,k = 0}^{N-1} \vert k\rangle\langle j\vert \otimes A_k \rho A_j^{\dagger},

a zatem

TrG(U(00Wρ)U)=j,k=0N1Tr(kj)AkρAj=k=0N1AkρAk=Φ(ρ).\begin{aligned} \operatorname{Tr}_{\mathsf{G}} \bigl( U (\vert 0\rangle \langle 0 \vert_{\mathsf{W}} \otimes \rho) U^{\dagger}\bigr) & = \sum_{j,k = 0}^{N-1} \operatorname{Tr}\bigl(\vert k\rangle\langle j\vert\bigr) \, A_k \rho A_j^{\dagger} \\ & = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger} \\ & = \Phi(\rho). \end{aligned}

Mamy zatem poprawną reprezentację odwzorowania Φ,\Phi, a pozostaje sprawdzić, że możemy wybrać UU jako unitary.

Rozważmy pierwszych nn kolumn U,U, gdy jest ono wybrane zgodnie z powyższym wzorcem. Biorąc same te kolumny, otrzymujemy macierz blokową

(A0A1AN1).\begin{pmatrix} A_0\\[1mm] A_1\\[1mm] \vdots\\[1mm] A_{N-1} \end{pmatrix}.

Jest nn kolumn, po jednej dla każdego klasycznego stanu X,\mathsf{X}, a jako wektory nazwijmy te kolumny γa\vert \gamma_a \rangle dla każdego aΣ.a\in\Sigma. Oto wzór na te wektory, który można dopasować do powyższej reprezentacji w postaci macierzy blokowej.

γa=k=0N1kAka\vert \gamma_a\rangle = \sum_{k = 0}^{N-1} \vert k\rangle \otimes A_k \vert a \rangle

Obliczmy teraz iloczyn skalarny między dowolnymi dwoma z tych wektorów, czyli tymi odpowiadającymi dowolnemu wyborowi a,bΣ.a,b\in\Sigma.

γaγb=j,k=0N1kjaAkAjb=a(k=0N1AkAk)b\langle \gamma_a \vert \gamma_b \rangle = \sum_{j,k = 0}^{N-1} \langle k \vert j \rangle \, \langle a \vert A_k^{\dagger} A_j \vert b\rangle = \langle a \vert \Biggl( \sum_{k = 0}^{N-1} A_k^{\dagger} A_k \Biggr) \vert b\rangle

Na mocy założenia

k=0m1AkAk=IX\sum_{k = 0}^{m-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}

wnioskujemy, że nn wektorów kolumnowych {γa:aΣ}\{\vert\gamma_a\rangle\,:\,a\in\Sigma\} tworzy zbiór ortonormalny:

γaγb={1a=b0ab\langle \gamma_a \vert \gamma_b \rangle = \begin{cases} 1 & a = b\\ 0 & a\neq b \end{cases}

dla wszystkich a,bΣ.a,b\in\Sigma.

Wynika z tego, że możliwe jest uzupełnienie pozostałych kolumn UU tak, aby stała się ona macierzą unitary. W szczególności do wyboru pozostałych kolumn można użyć procesu ortogonalizacji Grama-Schmidta. Coś podobnego zostało zrobione w lekcji Obwody kwantowe w ramach "Podstaw informacji kwantowej" w kontekście problemu rozróżniania stanów.

Od reprezentacji Stinespringa z powrotem do definicji

Ostatnia implikacja to 4 \Rightarrow 1. To znaczy, zakładamy, że mamy operację unitarną przekształcającą parę układów (W,X)(\mathsf{W},\mathsf{X}) w parę (G,Y),(\mathsf{G},\mathsf{Y}), a naszym celem jest wywnioskowanie, że odwzorowanie

Φ(ρ)=TrG(U(00Wρ)U)\Phi(\rho) = \operatorname{Tr}_{\mathsf{G}} \bigl( U (\vert 0\rangle \langle 0 \vert_{\mathsf{W}} \otimes \rho)U^{\dagger}\bigr)

jest poprawnym kanałem. Z jego postaci widać, że Φ\Phi jest liniowe, pozostaje więc zweryfikować, że zawsze przekształca ono macierze gęstości w macierze gęstości. Jest to dość proste i omówiliśmy już kluczowe punkty.

W szczególności, jeśli zaczniemy od macierzy gęstości σ\sigma układu złożonego (Z,X),(\mathsf{Z},\mathsf{X}), a następnie dodamy dodatkowy układ roboczy W,\mathsf{W}, z pewnością pozostanie nam macierz gęstości. Jeśli dla wygody zmienimy kolejność układów (W,Z,X),(\mathsf{W},\mathsf{Z},\mathsf{X}), możemy zapisać ten stan jako

00Wσ.\vert 0\rangle\langle 0\vert_{\mathsf{W}} \otimes \sigma.

Następnie stosujemy operację unitarną U,U, a jak już omówiliśmy, jest to poprawny kanał, a zatem odwzorowuje macierze gęstości na macierze gęstości. Wreszcie, ślad częściowy (partial trace) macierzy gęstości jest kolejną macierzą gęstości.

Inny sposób, aby to wyrazić, to zauważyć najpierw, że każde z poniższych jest poprawnym kanałem:

  1. Wprowadzenie zainicjowanego układu roboczego.
  2. Wykonanie operacji unitarnej.
  3. Wyśledzenie (partial trace) układu.

I wreszcie, dowolne złożenie kanałów jest kolejnym kanałem — co wynika bezpośrednio z definicji, ale jest też faktem wartym odnotowania samym w sobie.