Przejdź do głównej treści

Informacja klasyczna

Tak jak w poprzedniej lekcji, rozpoczniemy tę lekcję od omówienia informacji klasycznej. Po raz kolejny opisy probabilistyczny i kwantowy są matematycznie podobne, a rozpoznanie, jak działa matematyka w znajomym kontekście informacji klasycznej, pomaga zrozumieć, dlaczego informacja kwantowa jest opisywana w taki sposób, w jaki jest.

Stany klasyczne za pomocą iloczynu kartezjańskiego

Zaczniemy od bardzo podstawowego poziomu, od stanów klasycznych wielu systemów. Dla uproszczenia zaczniemy od omówienia tylko dwóch systemów, a następnie uogólnimy na więcej niż dwa systemy.

Mówiąc dokładniej, niech X\mathsf{X} będzie systemem, którego zbiorem stanów klasycznych jest Σ,\Sigma, a niech Y\mathsf{Y} będzie drugim systemem, którego zbiorem stanów klasycznych jest Γ.\Gamma. Zauważ, że ponieważ nazwaliśmy te zbiory zbiorami stanów klasycznych, zakładamy, że Σ\Sigma i Γ\Gamma są oba skończone i niepuste. Może być, że Σ=Γ,\Sigma = \Gamma, ale nie musi tak być — a niezależnie od tego, pomocne będzie używanie różnych nazw w odniesieniu do tych zbiorów dla zachowania jasności.

Wyobraźmy sobie teraz, że oba systemy, X\mathsf{X} i Y,\mathsf{Y}, są umieszczone obok siebie, z X\mathsf{X} po lewej stronie i Y\mathsf{Y} po prawej. Jeśli zechcemy, możemy rozpatrywać te dwa systemy tak, jakby tworzyły pojedynczy system, który możemy oznaczyć przez (X,Y)(\mathsf{X},\mathsf{Y}) lub XY\mathsf{XY} zależnie od preferencji. Naturalne pytanie, jakie można zadać o ten złożony system (X,Y),(\mathsf{X},\mathsf{Y}), brzmi: „Jakie są jego stany klasyczne?".

Odpowiedź brzmi: zbiór stanów klasycznych (X,Y)(\mathsf{X},\mathsf{Y}) jest iloczynem kartezjańskim (Cartesian product) zbiorów Σ\Sigma i Γ,\Gamma, który jest zbiorem zdefiniowanym jako

Σ×Γ={(a,b):aΣ  and  bΓ}. \Sigma\times\Gamma = \bigl\{(a,b)\,:\,a\in\Sigma\;\text{and}\;b\in\Gamma\bigr\}.

Mówiąc prosto, iloczyn kartezjański (Cartesian product) jest dokładnie tym pojęciem matematycznym, które wyraża ideę postrzegania elementu jednego zbioru i elementu drugiego zbioru razem, tak jakby tworzyły pojedynczy element pojedynczego zbioru. W rozważanym przypadku stwierdzenie, że (X,Y)(\mathsf{X},\mathsf{Y}) jest w stanie klasycznym (a,b)Σ×Γ(a,b)\in\Sigma\times\Gamma oznacza, że X\mathsf{X} jest w stanie klasycznym aΣa\in\Sigma oraz Y\mathsf{Y} jest w stanie klasycznym bΓ;b\in\Gamma; a jeśli stan klasyczny X\mathsf{X} to aΣa\in\Sigma i stan klasyczny Y\mathsf{Y} to bΓ,b\in\Gamma, to stan klasyczny systemu wspólnego (X,Y)(\mathsf{X},\mathsf{Y}) to (a,b).(a,b).

Dla więcej niż dwóch systemów sytuacja uogólnia się w naturalny sposób. Jeśli założymy, że X1,,Xn\mathsf{X}_1,\ldots,\mathsf{X}_n są systemami mającymi odpowiednio zbiory stanów klasycznych Σ1,,Σn,\Sigma_1,\ldots,\Sigma_n, to dla dowolnej dodatniej liczby całkowitej n,n, zbiór stanów klasycznych nn-ki (X1,,Xn),(\mathsf{X}_1,\ldots,\mathsf{X}_n), traktowanej jako pojedynczy system wspólny, jest iloczynem kartezjańskim (Cartesian product)

Σ1××Σn={(a1,,an):a1Σ1,,anΣn}. \Sigma_1\times\cdots\times\Sigma_n = \bigl\{(a_1,\ldots,a_n)\,:\, a_1\in\Sigma_1,\:\ldots,\:a_n\in\Sigma_n\bigr\}.

Oczywiście możemy dowolnie nazywać systemy i porządkować je według własnego wyboru. W szczególności, jeśli mamy nn systemów jak powyżej, możemy zamiast tego nazwać je X0,,Xn1\mathsf{X}_{0},\ldots,\mathsf{X}_{n-1} i ułożyć je od prawej do lewej, tak że system wspólny staje się (Xn1,,X0).(\mathsf{X}_{n-1},\ldots,\mathsf{X}_0). Idąc za tym samym wzorcem w nazywaniu odpowiadających stanów klasycznych i zbiorów stanów klasycznych, moglibyśmy wtedy mówić o stanie klasycznym

(an1,,a0)Σn1××Σ0(a_{n-1},\ldots,a_0) \in \Sigma_{n-1}\times \cdots \times \Sigma_0

tego systemu złożonego. Istotnie, jest to konwencja porządkowania używana przez Qiskit przy nazywaniu wielu kubitów. Do tej konwencji i jej związku z obwodami kwantowymi powrócimy w następnej lekcji, ale zaczniemy ją stosować już teraz, aby się do niej przyzwyczaić.

Często wygodnie jest zapisać stan klasyczny w postaci (an1,,a0)(a_{n-1},\ldots,a_0) jako ciąg znaków an1a0a_{n-1}\cdots a_0 dla zwięzłości, szczególnie w bardzo typowej sytuacji, gdy zbiory stanów klasycznych Σ0,,Σn1\Sigma_0,\ldots,\Sigma_{n-1} są związane ze zbiorami symboli lub znaków. W tym kontekście termin alfabet jest powszechnie używany w odniesieniu do zbiorów symboli używanych do tworzenia ciągów znaków, ale matematyczna definicja alfabetu jest dokładnie taka sama jak definicja zbioru stanów klasycznych: jest to zbiór skończony i niepusty.

Na przykład, przypuśćmy, że X0,,X9\mathsf{X}_0,\ldots,\mathsf{X}_9 są bitami, tak że zbiory stanów klasycznych tych systemów są wszystkie takie same.

Σ0=Σ1==Σ9={0,1} \Sigma_0 = \Sigma_1 = \cdots = \Sigma_9 = \{0,1\}

Istnieje wtedy 210=10242^{10} = 1024 stanów klasycznych systemu wspólnego (X9,,X0),(\mathsf{X}_9,\ldots,\mathsf{X}_0), które są elementami zbioru

Σ9×Σ8××Σ0={0,1}10. \Sigma_9\times\Sigma_8\times\cdots\times\Sigma_0 = \{0,1\}^{10}.

Zapisane jako ciągi znaków, te stany klasyczne wyglądają następująco:

000000000000000000010000000010000000001100000001001111111111 \begin{array}{c} 0000000000\\ 0000000001\\ 0000000010\\ 0000000011\\ 0000000100\\ \vdots\\[1mm] 1111111111 \end{array}

Dla stanu klasycznego 0000000110,0000000110, na przykład, widzimy, że X1\mathsf{X}_1 i X2\mathsf{X}_2 są w stanie 1,1, podczas gdy wszystkie inne systemy są w stanie 0.0.

Stany probabilistyczne

Przypomnijmy z poprzedniej lekcji, że stan probabilistyczny przypisuje prawdopodobieństwo każdemu klasycznemu stanowi systemu. Zatem stan probabilistyczny wielu systemów — traktowanych zbiorczo jako jeden system — przypisuje prawdopodobieństwo każdemu elementowi iloczynu kartezjańskiego klasycznych zbiorów stanów poszczególnych systemów.

Załóżmy na przykład, że zarówno X\mathsf{X}, jak i Y\mathsf{Y} są bitami, tak że odpowiadające im klasyczne zbiory stanów to odpowiednio Σ={0,1}\Sigma = \{0,1\} oraz Γ={0,1}.\Gamma = \{0,1\}. Oto stan probabilistyczny pary (X,Y):(\mathsf{X},\mathsf{Y}):

Pr((X,Y)=(0,0))=1/2Pr((X,Y)=(0,1))=0Pr((X,Y)=(1,0))=0Pr((X,Y)=(1,1))=1/2 \begin{aligned} \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (0,0)\bigr) & = 1/2 \\[2mm] \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (0,1)\bigr) & = 0\\[2mm] \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (1,0)\bigr) & = 0\\[2mm] \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (1,1)\bigr) & = 1/2 \end{aligned}

Jest to stan probabilistyczny, w którym zarówno X\mathsf{X}, jak i Y\mathsf{Y} są losowymi bitami — każdy z nich przyjmuje wartość 00 z prawdopodobieństwem 1/21/2 oraz 11 z prawdopodobieństwem 1/21/2 — ale klasyczne stany obu bitów zawsze się zgadzają. Jest to przykład korelacji między tymi systemami.

Porządkowanie zbiorów stanów iloczynu kartezjańskiego

Stany probabilistyczne systemów można reprezentować za pomocą wektorów prawdopodobieństwa, co zostało omówione w poprzedniej lekcji. W szczególności elementy wektora reprezentują prawdopodobieństwa tego, że system znajduje się w poszczególnych klasycznych stanach tego systemu, przy czym zakłada się, że została wybrana odpowiedniość między elementami wektora a zbiorem stanów klasycznych.

Wybór takiej odpowiedniości oznacza w istocie ustalenie porządku stanów klasycznych, który często jest naturalny lub określony przez standardową konwencję. Na przykład alfabet binarny {0,1}\{0,1\} jest naturalnie uporządkowany z 00 na pierwszym miejscu i 11 na drugim, więc pierwszy element w wektorze prawdopodobieństwa reprezentującym stan probabilistyczny bitu to prawdopodobieństwo tego, że jest on w stanie 0,0, a drugi element to prawdopodobieństwo, że jest w stanie 1.1.

Nic się w tym nie zmienia w kontekście wielu systemów, ale należy podjąć jedną decyzję. Klasyczny zbiór stanów wielu systemów razem, traktowanych zbiorczo jako jeden system, jest iloczynem kartezjańskim klasycznych zbiorów stanów poszczególnych systemów — musimy więc zdecydować, jak mają być uporządkowane elementy iloczynów kartezjańskich klasycznych zbiorów stanów.

Stosujemy w tym celu prostą konwencję, polegającą na rozpoczęciu od porządków już istniejących dla poszczególnych klasycznych zbiorów stanów, a następnie uporządkowaniu elementów iloczynu kartezjańskiego alfabetycznie. Innymi słowy, elementy każdej nn-tki (lub równoważnie symbole w każdym ciągu) są traktowane tak, jakby ich znaczenie malało od lewej do prawej. Na przykład, zgodnie z tą konwencją, iloczyn kartezjański {1,2,3}×{0,1}\{1,2,3\}\times\{0,1\} jest uporządkowany następująco:

(1,0),  (1,1),  (2,0),  (2,1),  (3,0),  (3,1). (1,0),\; (1,1),\; (2,0),\; (2,1),\; (3,0),\; (3,1).

Gdy nn-tki są zapisywane jako ciągi i uporządkowane w ten sposób, obserwujemy znajome wzorce, takie jak uporządkowanie {0,1}×{0,1}\{0,1\}\times\{0,1\} jako 00,01,10,11,00, 01, 10, 11, oraz zbioru {0,1}10\{0,1\}^{10} uporządkowanego tak, jak zostało to zapisane wcześniej w lekcji. Jako inny przykład, traktując zbiór {0,1,,9}×{0,1,,9}\{0, 1, \dots, 9\} \times \{0, 1, \dots, 9\} jako zbiór ciągów, otrzymujemy dwucyfrowe liczby od 0000 do 99,99, uporządkowane numerycznie. Oczywiście nie jest to zbieg okoliczności; nasz system dziesiętny używa dokładnie tego rodzaju uporządkowania alfabetycznego, przy czym słowo alfabetyczne należy rozumieć w szerokim sensie, obejmującym oprócz liter także cyfry.

Wracając do powyższego przykładu dwóch bitów, wcześniej opisany stan probabilistyczny jest więc reprezentowany przez następujący wektor prawdopodobieństwa, w którym elementy zostały wyraźnie opisane dla jasności.

(120012)prawdopodobienˊstwo bycia w stanie 00prawdopodobienˊstwo bycia w stanie 01prawdopodobienˊstwo bycia w stanie 10prawdopodobienˊstwo bycia w stanie 11(1) \begin{pmatrix} \frac{1}{2}\\[1mm] 0\\[1mm] 0\\[1mm] \frac{1}{2} \end{pmatrix} \begin{array}{l} \leftarrow \text{prawdopodobieństwo bycia w stanie 00}\\[1mm] \leftarrow \text{prawdopodobieństwo bycia w stanie 01}\\[1mm] \leftarrow \text{prawdopodobieństwo bycia w stanie 10}\\[1mm] \leftarrow \text{prawdopodobieństwo bycia w stanie 11} \end{array} \tag{1}

Niezależność dwóch systemów

Szczególnym rodzajem stanu probabilistycznego dwóch systemów jest taki, w którym systemy są niezależne. Intuicyjnie mówiąc, dwa systemy są niezależne, jeśli poznanie klasycznego stanu jednego z systemów nie ma wpływu na prawdopodobieństwa związane z drugim. Innymi słowy, poznanie klasycznego stanu jednego z systemów nie dostarcza żadnych informacji o klasycznym stanie drugiego.

Aby zdefiniować to pojęcie precyzyjnie, załóżmy ponownie, że X\mathsf{X} i Y\mathsf{Y} są systemami o klasycznych zbiorach stanów odpowiednio Σ\Sigma i Γ.\Gamma. Względem danego stanu probabilistycznego tych systemów mówi się, że są one niezależne, jeżeli zachodzi

Pr((X,Y)=(a,b))=Pr(X=a)Pr(Y=b)(2) \operatorname{Pr}((\mathsf{X},\mathsf{Y}) = (a,b)) = \operatorname{Pr}(\mathsf{X} = a) \operatorname{Pr}(\mathsf{Y} = b) \tag{2}

dla każdego wyboru aΣa\in\Sigma oraz bΓ.b\in\Gamma.

Aby wyrazić ten warunek w kategoriach wektorów prawdopodobieństwa, załóżmy, że dany stan probabilistyczny (X,Y)(\mathsf{X},\mathsf{Y}) jest opisany wektorem prawdopodobieństwa, zapisanym w notacji Diraca jako

(a,b)Σ×Γpabab.\sum_{(a,b) \in \Sigma\times\Gamma} p_{ab} \vert a b\rangle.

Warunek (2)(2) niezależności jest wtedy równoważny istnieniu dwóch wektorów prawdopodobieństwa

ϕ=aΣqaaandψ=bΓrbb,(3)\vert \phi \rangle = \sum_{a\in\Sigma} q_a \vert a \rangle \quad\text{and}\quad \vert \psi \rangle = \sum_{b\in\Gamma} r_b \vert b \rangle, \tag{3}

reprezentujących prawdopodobieństwa związane z klasycznymi stanami odpowiednio X\mathsf{X} i Y,\mathsf{Y}, takich że

pab=qarb(4)p_{ab} = q_a r_b \tag{4}

dla wszystkich aΣa\in\Sigma oraz bΓ.b\in\Gamma.

Na przykład stan probabilistyczny pary bitów (X,Y)(\mathsf{X},\mathsf{Y}) reprezentowany przez wektor

1600+11201+1210+1411 \frac{1}{6} \vert 00 \rangle + \frac{1}{12} \vert 01 \rangle + \frac{1}{2} \vert 10 \rangle + \frac{1}{4} \vert 11 \rangle

jest takim stanem, w którym X\mathsf{X} i Y\mathsf{Y} są niezależne. Konkretnie, warunek wymagany dla niezależności jest spełniony dla wektorów prawdopodobieństwa

ϕ=140+341andψ=230+131. \vert \phi \rangle = \frac{1}{4} \vert 0 \rangle + \frac{3}{4} \vert 1 \rangle \quad\text{and}\quad \vert \psi \rangle = \frac{2}{3} \vert 0 \rangle + \frac{1}{3} \vert 1 \rangle.

Na przykład, aby prawdopodobieństwa dla stanu 0000 były zgodne, potrzebujemy 16=14×23,\frac{1}{6} = \frac{1}{4} \times \frac{2}{3}, i rzeczywiście tak jest. Pozostałe elementy można zweryfikować w podobny sposób.

Z drugiej strony, stan probabilistyczny (1),(1), który możemy zapisać jako

1200+1211,(5) \frac{1}{2} \vert 00 \rangle + \frac{1}{2} \vert 11 \rangle, \tag{5}

nie reprezentuje niezależności między systemami X\mathsf{X} i Y.\mathsf{Y}. Oto prosty argument uzasadniający to stwierdzenie.

Załóżmy, że istniałyby wektory prawdopodobieństwa ϕ\vert \phi\rangle i ψ,\vert \psi \rangle, jak w równaniu (3)(3) powyżej, dla których warunek (4)(4) byłby spełniony dla każdego wyboru aa i b.b. Musiałoby wtedy zachodzić

q0r1=Pr((X,Y)=(0,1))=0. q_0 r_1 = \operatorname{Pr}\bigl((\mathsf{X},\mathsf{Y}) = (0,1)\bigr) = 0.

Oznacza to, że albo q0=0,q_0 = 0, albo r1=0,r_1 = 0, ponieważ gdyby oba były niezerowe, iloczyn q0r1q_0 r_1 również byłby niezerowy. Prowadzi to do wniosku, że albo q0r0=0q_0 r_0 = 0 (w przypadku q0=0q_0 = 0), albo q1r1=0q_1 r_1 = 0 (w przypadku r1=0r_1 = 0). Widzimy jednak, że żadna z tych równości nie może być prawdziwa, ponieważ musimy mieć q0r0=1/2q_0 r_0 = 1/2 oraz q1r1=1/2.q_1 r_1 = 1/2. Stąd nie istnieją wektory ϕ\vert\phi\rangle i ψ\vert\psi\rangle spełniające własność wymaganą dla niezależności.

Po zdefiniowaniu niezależności między dwoma systemami możemy teraz zdefiniować, co rozumiemy przez korelację: jest to brak niezależności. Na przykład, ponieważ dwa bity w stanie probabilistycznym reprezentowanym przez wektor (5)(5) nie są niezależne, są one z definicji skorelowane.

Iloczyny tensorowe wektorów

Właśnie opisany warunek niezależności można zwięźle wyrazić za pomocą pojęcia iloczynu tensorowego. Chociaż iloczyny tensorowe są pojęciem bardzo ogólnym i mogą być definiowane dość abstrakcyjnie oraz stosowane do różnorodnych struktur matematycznych, w omawianym przypadku możemy przyjąć prostą i konkretną definicję.

Dane są dwa wektory

ϕ=aΣαaaandψ=bΓβbb,\vert \phi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle \quad\text{and}\quad \vert \psi \rangle = \sum_{b\in\Gamma} \beta_b \vert b \rangle,

iloczyn tensorowy ϕψ\vert \phi \rangle \otimes \vert \psi \rangle jest wektorem zdefiniowanym jako

ϕψ=(a,b)Σ×Γαaβbab. \vert \phi \rangle \otimes \vert \psi \rangle = \sum_{(a,b)\in\Sigma\times\Gamma} \alpha_a \beta_b \vert ab\rangle.

Wpisy tego nowego wektora odpowiadają elementom iloczynu kartezjańskiego Σ×Γ,\Sigma\times\Gamma, które w poprzednim równaniu zapisane są jako ciągi znaków. Równoważnie, wektor π=ϕψ\vert \pi \rangle = \vert \phi \rangle \otimes \vert \psi \rangle jest zdefiniowany przez równanie

abπ=aϕbψ\langle ab \vert \pi \rangle = \langle a \vert \phi \rangle \langle b \vert \psi \rangle

będące prawdziwe dla każdego aΣa\in\Sigma oraz bΓ.b\in\Gamma.

Możemy teraz przeformułować warunek niezależności: dla układu złożonego (X,Y)(\mathsf{X}, \mathsf{Y}) w stanie probabilistycznym reprezentowanym przez wektor prawdopodobieństwa π,\vert \pi \rangle, układy X\mathsf{X} i Y\mathsf{Y} są niezależne, jeśli π\vert\pi\rangle otrzymujemy poprzez wzięcie iloczynu tensorowego

π=ϕψ \vert \pi \rangle = \vert \phi \rangle \otimes \vert \psi \rangle

wektorów prawdopodobieństwa ϕ\vert \phi \rangle oraz ψ\vert \psi \rangle na każdym z podukładów X\mathsf{X} i Y.\mathsf{Y}. W tej sytuacji mówimy, że π\vert \pi \rangle jest stanem produktowym lub wektorem produktowym.

Często pomijamy symbol \otimes przy braniu iloczynu tensorowego ketów, pisząc na przykład ϕψ\vert \phi \rangle \vert \psi \rangle zamiast ϕψ.\vert \phi \rangle \otimes \vert \psi \rangle. Ta konwencja oddaje ideę, że iloczyn tensorowy jest w tym kontekście najbardziej naturalnym lub domyślnym sposobem brania iloczynu dwóch wektorów. Choć rzadziej spotykana, notacja ϕψ\vert \phi\otimes\psi\rangle jest również czasami używana.

Gdy stosujemy alfabetyczną konwencję porządkowania elementów iloczynów kartezjańskich, otrzymujemy następującą specyfikację iloczynu tensorowego dwóch wektorów kolumnowych.

(α1αm)(β1βk)=(α1β1α1βkα2β1α2βkαmβ1αmβk) \begin{pmatrix} \alpha_1\\ \vdots\\ \alpha_m \end{pmatrix} \otimes \begin{pmatrix} \beta_1\\ \vdots\\ \beta_k \end{pmatrix} = \begin{pmatrix} \alpha_1 \beta_1\\ \vdots\\ \alpha_1 \beta_k\\ \alpha_2 \beta_1\\ \vdots\\ \alpha_2 \beta_k\\ \vdots\\ \alpha_m \beta_1\\ \vdots\\ \alpha_m \beta_k \end{pmatrix}

Jako ważną uwagę na marginesie, zauważmy następujące wyrażenie dla iloczynów tensorowych standardowych wektorów bazowych:

ab=ab.\vert a \rangle \otimes \vert b \rangle = \vert ab \rangle.

Alternatywnie moglibyśmy zapisać (a,b)(a,b) jako parę uporządkowaną, a nie ciąg znaków, w którym to przypadku otrzymujemy ab=(a,b).\vert a \rangle \otimes \vert b \rangle = \vert (a,b) \rangle. Jednak częściej w tej sytuacji pomija się nawiasy, zamiast tego pisząc ab=a,b.\vert a \rangle \otimes \vert b \rangle = \vert a,b \rangle. Jest to typowe w matematyce ogólnie; nawiasy, które nie dodają jasności ani nie usuwają wieloznaczności, są często po prostu pomijane.

Iloczyn tensorowy dwóch wektorów ma istotną właściwość, jaką jest biliniowość, co oznacza, że jest liniowy w każdym z dwóch argumentów z osobna, przy założeniu, że drugi argument jest ustalony. Właściwość tę można wyrazić poprzez następujące równania:

1. Liniowość w pierwszym argumencie:

(ϕ1+ϕ2)ψ=ϕ1ψ+ϕ2ψ(αϕ)ψ=α(ϕψ)\begin{aligned} \bigl(\vert\phi_1\rangle + \vert\phi_2\rangle\bigr)\otimes \vert\psi\rangle & = \vert\phi_1\rangle \otimes \vert\psi\rangle + \vert\phi_2\rangle \otimes \vert\psi\rangle \\[1mm] \bigl(\alpha \vert \phi \rangle\bigr) \otimes \vert \psi \rangle & = \alpha \bigl(\vert \phi \rangle \otimes \vert \psi \rangle \bigr) \end{aligned}

2. Liniowość w drugim argumencie:

ϕ(ψ1+ψ2)=ϕψ1+ϕψ2ϕ(αψ)=α(ϕψ)\begin{aligned} \vert \phi \rangle \otimes \bigl(\vert \psi_1 \rangle + \vert \psi_2 \rangle \bigr) & = \vert \phi \rangle \otimes \vert \psi_1 \rangle + \vert \phi \rangle \otimes \vert \psi_2 \rangle\\[1mm] \vert \phi \rangle \otimes \bigl(\alpha \vert \psi \rangle \bigr) & = \alpha \bigl(\vert\phi\rangle\otimes\vert\psi\rangle\bigr) \end{aligned}

Rozważając drugie równanie w każdej z tych par równań, widzimy, że skalary "swobodnie unoszą się" wewnątrz iloczynów tensorowych:

(αϕ)ψ=ϕ(αψ)=α(ϕψ).\bigl(\alpha \vert \phi \rangle\bigr) \otimes \vert \psi \rangle = \vert \phi \rangle \otimes \bigl(\alpha \vert \psi \rangle \bigr) = \alpha \bigl(\vert \phi \rangle \otimes \vert \psi \rangle \bigr).

Nie ma zatem żadnej wieloznaczności w pisaniu po prostu αϕψ,\alpha\vert\phi\rangle\otimes\vert\psi\rangle, lub alternatywnie αϕψ\alpha\vert\phi\rangle\vert\psi \rangle bądź αϕψ,\alpha\vert\phi\otimes\psi\rangle, na oznaczenie tego wektora.

Niezależność i iloczyny tensorowe dla trzech lub większej liczby układów

Pojęcia niezależności i iloczynów tensorowych uogólniają się bezpośrednio na trzy lub większą liczbę układów. Jeśli X0,,Xn1\mathsf{X}_0,\ldots,\mathsf{X}_{n-1} są układami mającymi klasyczne zbiory stanów odpowiednio Σ0,,Σn1,\Sigma_0,\ldots,\Sigma_{n-1}, to stan probabilistyczny układu złożonego (Xn1,,X0)(\mathsf{X}_{n-1},\ldots,\mathsf{X}_0) jest stanem produktowym, jeśli powiązany wektor prawdopodobieństwa ma postać

ψ=ϕn1ϕ0 \vert \psi \rangle = \vert \phi_{n-1} \rangle \otimes \cdots \otimes \vert \phi_0 \rangle

dla wektorów prawdopodobieństwa ϕ0,,ϕn1\vert \phi_0 \rangle,\ldots,\vert \phi_{n-1}\rangle opisujących stany probabilistyczne X0,,Xn1.\mathsf{X}_0,\ldots,\mathsf{X}_{n-1}. Tutaj definicja iloczynu tensorowego uogólnia się w naturalny sposób: wektor

ψ=ϕn1ϕ0\vert \psi \rangle = \vert \phi_{n-1} \rangle \otimes \cdots \otimes \vert \phi_0 \rangle

jest zdefiniowany przez równanie

an1a0ψ=an1ϕn1a0ϕ0 \langle a_{n-1} \cdots a_0 \vert \psi \rangle = \langle a_{n-1} \vert \phi_{n-1} \rangle \cdots \langle a_0 \vert \phi_0 \rangle

będące prawdziwe dla każdego a0Σ0,an1Σn1.a_0\in\Sigma_0, \ldots a_{n-1}\in\Sigma_{n-1}.

Innym, ale równoważnym, sposobem zdefiniowania iloczynu tensorowego trzech lub większej liczby wektorów jest definicja rekurencyjna w kategoriach iloczynów tensorowych dwóch wektorów:

ϕn1ϕ0=ϕn1(ϕn2ϕ0). \vert \phi_{n-1} \rangle \otimes \cdots \otimes \vert \phi_0 \rangle = \vert \phi_{n-1} \rangle \otimes \bigl( \vert \phi_{n-2} \rangle \otimes \cdots \otimes \vert \phi_0 \rangle \bigr).

Podobnie jak iloczyn tensorowy tylko dwóch wektorów, iloczyn tensorowy trzech lub większej liczby wektorów jest liniowy w każdym z argumentów z osobna, przy założeniu, że wszystkie pozostałe argumenty są ustalone. W takim przypadku mówimy, że iloczyn tensorowy trzech lub większej liczby wektorów jest wieloliniowy.

Podobnie jak w przypadku dwóch układów, moglibyśmy powiedzieć, że układy X0,,Xn1\mathsf{X}_0,\ldots,\mathsf{X}_{n-1}niezależne, gdy znajdują się w stanie produktowym, ale termin wzajemnie niezależne jest bardziej precyzyjny. Istnieją również inne pojęcia niezależności dla trzech lub większej liczby układów, takie jak niezależność parami, które są zarówno interesujące, jak i ważne — ale nie w kontekście tego kursu.

Uogólniając wcześniejszą obserwację dotyczącą iloczynów tensorowych standardowych wektorów bazowych, dla dowolnej dodatniej liczby całkowitej nn i dowolnych stanów klasycznych a0,,an1,a_0,\ldots,a_{n-1}, mamy

an1a0=an1a0.\vert a_{n-1} \rangle \otimes \cdots \otimes \vert a_0 \rangle = \vert a_{n-1} \cdots a_0 \rangle.

Pomiary stanów probabilistycznych

Przejdźmy teraz do pomiarów stanów probabilistycznych wielu systemów. Wybierając sposób postrzegania wielu systemów łącznie jako pojedynczych systemów, natychmiast otrzymujemy specyfikację tego, jak muszą działać pomiary dla wielu systemów — pod warunkiem, że mierzone są wszystkie systemy.

Na przykład, jeśli stan probabilistyczny dwóch bitów (X,Y)(\mathsf{X},\mathsf{Y}) jest opisany przez wektor prawdopodobieństwa

1200+1211, \frac{1}{2} \vert 00 \rangle + \frac{1}{2} \vert 11 \rangle,

to wynik 0000 — co oznacza 00 dla pomiaru X\mathsf{X} oraz 00 dla pomiaru Y\mathsf{Y} — uzyskuje się z prawdopodobieństwem 1/2,1/2, a wynik 1111 również uzyskuje się z prawdopodobieństwem 1/2.1/2. W każdym przypadku odpowiednio aktualizujemy opis naszej wiedzy w postaci wektora prawdopodobieństwa, tak że stan probabilistyczny staje się odpowiednio 00|00\rangle lub 11.|11\rangle.

Moglibyśmy jednak zdecydować się na pomiar nie każdego systemu, lecz jedynie niektórych z nich. W rezultacie otrzymamy wynik pomiaru dla każdego mierzonego systemu, a to również (ogólnie) wpłynie na naszą wiedzę o pozostałych systemach, których nie zmierzyliśmy.

Aby wyjaśnić, jak to działa, skupimy się na przypadku dwóch systemów, z których jeden jest mierzony. Bardziej ogólna sytuacja — w której mierzony jest pewien właściwy podzbiór trzech lub więcej systemów — efektywnie redukuje się do przypadku dwóch systemów, gdy traktujemy systemy mierzone łącznie tak, jakby tworzyły jeden system, a systemy, które nie są mierzone, tak, jakby tworzyły drugi system.

Mówiąc dokładniej, załóżmy, że X\mathsf{X} i Y\mathsf{Y} są systemami, których klasyczne zbiory stanów to odpowiednio Σ\Sigma i Γ,\Gamma, oraz że oba systemy razem znajdują się w pewnym stanie probabilistycznym. Rozważymy, co się dzieje, gdy mierzymy tylko X\mathsf{X} i nie robimy nic z Y.\mathsf{Y}. Sytuacja, w której mierzony jest tylko Y,\mathsf{Y}, a z X\mathsf{X} nic się nie dzieje, jest obsługiwana symetrycznie.

Po pierwsze, wiemy, że prawdopodobieństwo zaobserwowania konkretnego stanu klasycznego aΣa\in\Sigma podczas pomiaru tylko X\mathsf{X} musi być spójne z prawdopodobieństwami, które uzyskalibyśmy przy założeniu, że Y\mathsf{Y} również został zmierzony. Oznacza to, że musimy mieć

Pr(X=a)=bΓPr((X,Y)=(a,b)). \operatorname{Pr}(\mathsf{X} = a) = \sum_{b\in\Gamma} \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (a,b) \bigr).

Jest to wzór na tak zwany zredukowany (lub brzegowy) stan probabilistyczny samego X.\mathsf{X}.

Wzór ten ma doskonały sens na poziomie intuicyjnym w tym znaczeniu, że musiałoby się wydarzyć coś bardzo dziwnego, aby był błędny. Gdyby był błędny, oznaczałoby to, że pomiar Y\mathsf{Y} mógłby w jakiś sposób wpływać na probability associated z różnymi wynikami pomiaru X,\mathsf{X}, niezależnie od rzeczywistego wyniku pomiaru Y.\mathsf{Y}. Gdyby Y\mathsf{Y} znajdowało się w odległym miejscu, takim jak na przykład gdzieś w innej galaktyce, pozwoliłoby to na sygnalizację szybszą od światła — którą odrzucamy na podstawie naszego rozumienia fizyki. Inny sposób zrozumienia tego wynika z interpretacji prawdopodobieństwa jako odzwierciedlenia stopnia przekonania. Sam fakt, że ktoś inny może zdecydować się spojrzeć na Y,\mathsf{Y}, nie może zmienić stanu klasycznego X,\mathsf{X}, więc bez żadnych informacji o tym, co zobaczył lub czego nie zobaczył, przekonania dotyczące stanu X\mathsf{X} nie powinny się w rezultacie zmienić.

Teraz, przy założeniu, że mierzone jest tylko X,\mathsf{X}, a Y\mathsf{Y} nie, może nadal istnieć niepewność co do stanu klasycznego Y.\mathsf{Y}. Z tego powodu, zamiast aktualizować nasz opis stanu probabilistycznego (X,Y)(\mathsf{X},\mathsf{Y}) do ab\vert ab\rangle dla pewnego wyboru aΣa\in\Sigma i bΓ,b\in\Gamma, musimy zaktualizować nasz opis tak, aby ta niepewność co do Y\mathsf{Y} była właściwie odzwierciedlona.

Poniższy wzór na prawdopodobieństwo warunkowe odzwierciedla tę niepewność.

Pr(Y=bX=a)=Pr((X,Y)=(a,b))Pr(X=a) \operatorname{Pr}(\mathsf{Y} = b \,\vert\, \mathsf{X} = a) = \frac{ \operatorname{Pr}\bigl((\mathsf{X},\mathsf{Y}) = (a,b)\bigr) }{ \operatorname{Pr}(\mathsf{X} = a) }

W tym miejscu wyrażenie Pr(Y=bX=a)\operatorname{Pr}(\mathsf{Y} = b \,\vert\, \mathsf{X} = a) oznacza prawdopodobieństwo, że Y=b\mathsf{Y} = b pod warunkiem (lub przy założeniu, że) X=a.\mathsf{X} = a. Mówiąc technicznie, to wyrażenie ma sens tylko wtedy, gdy Pr(X=a)\operatorname{Pr}(\mathsf{X}=a) jest niezerowe, ponieważ jeśli Pr(X=a)=0,\operatorname{Pr}(\mathsf{X}=a) = 0, to dzielimy przez zero i otrzymujemy symbol nieoznaczony 00.\frac{0}{0}. Nie stanowi to jednak problemu, ponieważ jeśli prawdopodobieństwo związane z aa wynosi zero, to nigdy nie uzyskamy aa jako wyniku pomiaru X,\mathsf{X}, więc nie musimy się przejmować tą możliwością.

Aby wyrazić te wzory w kategoriach wektorów prawdopodobieństwa, rozważmy wektor prawdopodobieństwa π\vert \pi \rangle opisujący wspólny stan probabilistyczny (X,Y).(\mathsf{X},\mathsf{Y}).

π=(a,b)Σ×Γpabab \vert\pi\rangle = \sum_{(a,b)\in\Sigma\times\Gamma} p_{ab} \vert ab\rangle

Pomiar samego X\mathsf{X} daje każdy możliwy wynik aΣa\in\Sigma z prawdopodobieństwem

Pr(X=a)=cΓpac. \operatorname{Pr}(\mathsf{X} = a) = \sum_{c\in\Gamma} p_{ac}.

Wektor reprezentujący stan probabilistyczny samego X\mathsf{X} jest zatem dany przez

aΣ(cΓpac)a. \sum_{a\in\Sigma} \biggl(\sum_{c\in\Gamma} p_{ac}\biggr) \vert a\rangle.

Po uzyskaniu konkretnego wyniku aΣa\in\Sigma pomiaru X,\mathsf{X}, stan probabilistyczny Y\mathsf{Y} jest aktualizowany zgodnie ze wzorem na prawdopodobieństwa warunkowe, tak że jest reprezentowany przez ten wektor prawdopodobieństwa:

ψa=bΓpabbcΓpac. \vert \psi_a \rangle = \frac{\sum_{b\in\Gamma}p_{ab}\vert b\rangle}{\sum_{c\in\Gamma} p_{ac}}.

W przypadku, gdy pomiar X\mathsf{X} dał w wyniku stan klasyczny a,a, aktualizujemy zatem nasz opis stanu probabilistycznego układu wspólnego (X,Y)(\mathsf{X},\mathsf{Y}) do aψa.\vert a\rangle \otimes \vert\psi_a\rangle.

Jednym ze sposobów myślenia o tej definicji ψa\vert\psi_a\rangle jest postrzeganie jej jako normalizacji wektora bΓpabb,\sum_{b\in\Gamma} p_{ab} \vert b\rangle, gdzie dzielimy przez sumę wpisów tego wektora, aby otrzymać wektor prawdopodobieństwa. Ta normalizacja efektywnie uwzględnia warunkowanie zdarzeniem polegającym na tym, że pomiar X\mathsf{X} dał wynik a.a.

Jako konkretny przykład załóżmy, że klasyczny zbiór stanów X\mathsf{X} to Σ={0,1},\Sigma = \{0,1\}, klasyczny zbiór stanów Y\mathsf{Y} to Γ={1,2,3},\Gamma = \{1,2,3\}, a stan probabilistyczny (X,Y)(\mathsf{X},\mathsf{Y}) wynosi

π=120,1+1120,3+1121,1+161,2+161,3. \vert \pi \rangle = \frac{1}{2} \vert 0,1 \rangle + \frac{1}{12} \vert 0,3 \rangle + \frac{1}{12} \vert 1,1 \rangle + \frac{1}{6} \vert 1,2 \rangle + \frac{1}{6} \vert 1,3 \rangle.

Naszym celem będzie określenie prawdopodobieństw dwóch możliwych wyników (00 i 11) oraz obliczenie wynikowego stanu probabilistycznego Y\mathsf{Y} dla obu wyników, przy założeniu, że mierzony jest system X.\mathsf{X}.

Korzystając z dwuliniowości iloczynu tensorowego, a konkretnie z faktu, że jest on liniowy względem drugiego argumentu, możemy przepisać wektor π\vert \pi \rangle następująco:

π=0(121+1123)+1(1121+162+163). \vert \pi \rangle = \vert 0\rangle \otimes \biggl( \frac{1}{2} \vert 1 \rangle + \frac{1}{12} \vert 3 \rangle\biggr) + \vert 1\rangle \otimes \biggl( \frac{1}{12} \vert 1 \rangle + \frac{1}{6} \vert 2\rangle + \frac{1}{6} \vert 3 \rangle\biggr).

Słowami, to, co zrobiliśmy, to wyodrębnienie poszczególnych standardowych wektorów bazowych dla pierwszego systemu (czyli tego, który jest mierzony), tensorując każdy z nich z kombinacją liniową standardowych wektorów bazowych dla drugiego systemu, którą uzyskujemy, wybierając te wpisy pierwotnego wektora, które są zgodne z odpowiadającym stanem klasycznym pierwszego systemu. Chwila zastanowienia ujawnia, że jest to zawsze możliwe, niezależnie od tego, od jakiego wektora zaczęliśmy.

Po wyrażeniu naszego wektora prawdopodobieństwa w ten sposób, efekty pomiaru pierwszego systemu stają się łatwe do przeanalizowania. Prawdopodobieństwa dwóch wyników można uzyskać, sumując prawdopodobieństwa w nawiasach.

Pr(X=0)=12+112=712Pr(X=1)=112+16+16=512 \begin{aligned} \operatorname{Pr}(\mathsf{X} = 0) & = \frac{1}{2} + \frac{1}{12} = \frac{7}{12}\\[3mm] \operatorname{Pr}(\mathsf{X} = 1) & = \frac{1}{12} + \frac{1}{6} + \frac{1}{6} = \frac{5}{12} \end{aligned}

Prawdopodobieństwa te sumują się do jedności, zgodnie z oczekiwaniami — ale jest to użyteczne sprawdzenie naszych obliczeń.

A teraz stan probabilistyczny Y\mathsf{Y} warunkowany każdym możliwym wynikiem można wywnioskować, normalizując wektory w nawiasach. Oznacza to, że dzielimy te wektory przez odpowiednie prawdopodobieństwa, które właśnie obliczyliśmy, tak aby stały się wektorami prawdopodobieństwa.

Zatem, pod warunkiem, że X\mathsf{X} wynosi 0,0, stan probabilistyczny Y\mathsf{Y} staje się

121+1123712=671+173, \frac{\frac{1}{2} \vert 1 \rangle + \frac{1}{12} \vert 3 \rangle}{\frac{7}{12}} = \frac{6}{7} \vert 1 \rangle + \frac{1}{7} \vert 3 \rangle,

a pod warunkiem, że pomiar X\mathsf{X} wynosi 1,1, stan probabilistyczny Y\mathsf{Y} staje się

1121+162+163512=151+252+253. \frac{\frac{1}{12} \vert 1 \rangle + \frac{1}{6} \vert 2\rangle + \frac{1}{6} \vert 3 \rangle}{\frac{5}{12}} = \frac{1}{5} \vert 1 \rangle + \frac{2}{5} \vert 2 \rangle + \frac{2}{5} \vert 3 \rangle.

Operacje na stanach probabilistycznych

Aby zakończyć tę dyskusję na temat informacji klasycznej dla wielu układów, rozważymy operacje na wielu układach znajdujących się w stanach probabilistycznych. Kierując się tą samą ideą co wcześniej, możemy traktować wiele układów łącznie jako pojedyncze, złożone układy, a następnie odwołać się do poprzedniej lekcji, aby zobaczyć, jak to działa.

Wracając do typowej konfiguracji, w której mamy dwa układy X\mathsf{X} oraz Y,\mathsf{Y}, rozważmy klasyczne operacje na układzie złożonym (X,Y).(\mathsf{X},\mathsf{Y}). Na podstawie poprzedniej lekcji i powyższej dyskusji stwierdzamy, że każda taka operacja jest reprezentowana przez macierz stochastyczną, której wiersze i kolumny są indeksowane przez iloczyn kartezjański Σ×Γ.\Sigma\times\Gamma.

Na przykład przypuśćmy, że X\mathsf{X} i Y\mathsf{Y} są bitami, i rozważmy operację o następującym opisie.

Operacja

Jeżeli X=1,\mathsf{X} = 1, to wykonaj operację NOT na Y.\mathsf{Y}.
W przeciwnym razie nic nie rób.

Jest to operacja deterministyczna znana jako operacja controlled-NOT, w której X\mathsf{X} jest bitem sterującym (control), decydującym, czy operacja NOT ma zostać zastosowana do bitu docelowego (target) Y.\mathsf{Y}. Oto macierzowa reprezentacja tej operacji:

(1000010000010010).\begin{pmatrix} 1 & 0 & 0 & 0\\[2mm] 0 & 1 & 0 & 0\\[2mm] 0 & 0 & 0 & 1\\[2mm] 0 & 0 & 1 & 0 \end{pmatrix}.

Jej działanie na stany bazy standardowej jest następujące.

0000010110111110\begin{aligned} \vert 00 \rangle & \mapsto \vert 00 \rangle\\ \vert 01 \rangle & \mapsto \vert 01 \rangle\\ \vert 10 \rangle & \mapsto \vert 11 \rangle\\ \vert 11 \rangle & \mapsto \vert 10 \rangle \end{aligned}

Gdybyśmy zamienili role X\mathsf{X} i Y,\mathsf{Y}, przyjmując, że Y\mathsf{Y} jest bitem sterującym, a X\mathsf{X} bitem docelowym, to macierzowa reprezentacja operacji przyjęłaby postać

(1000000100100100)\begin{pmatrix} 1 & 0 & 0 & 0\\[2mm] 0 & 0 & 0 & 1\\[2mm] 0 & 0 & 1 & 0\\[2mm] 0 & 1 & 0 & 0 \end{pmatrix}

a jej działanie na stany bazy standardowej wyglądałoby tak:

0000011110101101\begin{aligned} \vert 00 \rangle & \mapsto \vert 00 \rangle\\ \vert 01 \rangle & \mapsto \vert 11 \rangle\\ \vert 10 \rangle & \mapsto \vert 10 \rangle\\ \vert 11 \rangle & \mapsto \vert 01 \rangle \end{aligned}

Innym przykładem jest operacja o następującym opisie:

Operacja

Wykonaj jedną z dwóch poniższych operacji, każdą z probability 1/2:1/2:

  1. Ustaw Y\mathsf{Y} jako równe X.\mathsf{X}.
  2. Ustaw X\mathsf{X} jako równe Y.\mathsf{Y}.

Macierzowa reprezentacja tej operacji jest następująca:

(11212000000000012121)=12(1100000000000011)+12(1010000000000101).\begin{pmatrix} 1 & \frac{1}{2} & \frac{1}{2} & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & \frac{1}{2} & \frac{1}{2} & 1 \end{pmatrix} = \frac{1}{2} \begin{pmatrix} 1 & 1 & 0 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 0 & 1 & 1 \end{pmatrix} + \frac{1}{2} \begin{pmatrix} 1 & 0 & 1 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 1 & 0 & 1 \end{pmatrix}.

Działanie tej operacji na wektory bazy standardowej jest następujące:

0000011200+1211101200+12111111\begin{aligned} \vert 00 \rangle & \mapsto \vert 00 \rangle\\[1mm] \vert 01 \rangle & \mapsto \frac{1}{2} \vert 00 \rangle + \frac{1}{2}\vert 11\rangle\\[3mm] \vert 10 \rangle & \mapsto \frac{1}{2} \vert 00 \rangle + \frac{1}{2}\vert 11\rangle\\[2mm] \vert 11 \rangle & \mapsto \vert 11 \rangle \end{aligned}

W tych przykładach po prostu traktujemy dwa układy łącznie jako pojedynczy układ i postępujemy tak jak w poprzedniej lekcji.

To samo można zrobić dla dowolnej liczby układów. Na przykład wyobraźmy sobie, że mamy trzy bity i zwiększamy te trzy bity modulo 88 — co oznacza, że traktujemy te trzy bity jako kodujące w notacji binarnej liczbę między 00 a 7,7, dodajemy 1,1, a następnie bierzemy resztę z dzielenia przez 8.8. Jednym ze sposobów wyrażenia tej operacji jest:

001000+010001+011010+100011+101100+110101+111110+000111.\begin{aligned} & \vert 001 \rangle \langle 000 \vert + \vert 010 \rangle \langle 001 \vert + \vert 011 \rangle \langle 010 \vert + \vert 100 \rangle \langle 011 \vert\\[1mm] & \quad + \vert 101 \rangle \langle 100 \vert + \vert 110 \rangle \langle 101 \vert + \vert 111 \rangle \langle 110 \vert + \vert 000 \rangle \langle 111 \vert. \end{aligned}

Innym sposobem wyrażenia tego jest

k=07(k+1)mod8k,\sum_{k = 0}^{7} \vert (k+1) \bmod 8 \rangle \langle k \vert,

przy założeniu, że uzgodniliśmy, iż liczby od 00 do 77 wewnątrz ketów odnoszą się do trzybitowych kodowań binarnych tych liczb. Trzecią opcją jest wyrażenie tej operacji jako macierzy.

(0000000110000000010000000010000000010000000010000000010000000010)\begin{pmatrix} 0 & 0 & 0 & 0 & 0 & 0 & 0 & 1\\ 1 & 0 & 0 & 0 & 0 & 0 & 0 & 0\\ 0 & 1 & 0 & 0 & 0 & 0 & 0 & 0\\ 0 & 0 & 1 & 0 & 0 & 0 & 0 & 0\\ 0 & 0 & 0 & 1 & 0 & 0 & 0 & 0\\ 0 & 0 & 0 & 0 & 1 & 0 & 0 & 0\\ 0 & 0 & 0 & 0 & 0 & 1 & 0 & 0\\ 0 & 0 & 0 & 0 & 0 & 0 & 1 & 0 \end{pmatrix}

Niezależne operacje

Przypuśćmy teraz, że mamy wiele układów i niezależnie wykonujemy różne operacje na tych układach z osobna.

Na przykład, przyjmując naszą zwykłą konfigurację dwóch układów X\mathsf{X} i Y\mathsf{Y} mających klasyczne zbiory stanów odpowiednio Σ\Sigma i Γ,\Gamma, przypuśćmy, że wykonujemy jedną operację na X\mathsf{X} i zupełnie niezależnie drugą operację na Y.\mathsf{Y}. Jak wiemy z poprzedniej lekcji, operacje te są reprezentowane przez macierze stochastic — a ściślej, powiedzmy, że operacja na X\mathsf{X} jest reprezentowana przez macierz M,M, a operacja na Y\mathsf{Y} jest reprezentowana przez macierz N.N. Zatem wiersze i kolumny MM mają indeksy odpowiadające elementom Σ,\Sigma, a analogicznie wiersze i kolumny NN odpowiadają elementom Γ.\Gamma.

Naturalne pytanie brzmi: jeżeli spojrzymy na X\mathsf{X} i Y\mathsf{Y} łącznie jako na pojedynczy, złożony układ (X,Y),(\mathsf{X},\mathsf{Y}), to jaka macierz reprezentuje połączone działanie tych dwóch operacji na tym układzie złożonym? Aby odpowiedzieć na to pytanie, musimy najpierw wprowadzić iloczyny tensorowe macierzy, które są podobne do iloczynów tensorowych wektorów i definiowane są analogicznie.

Iloczyny tensorowe macierzy

Iloczyn tensorowy MNM\otimes N macierzy

M=a,bΣαabab M = \sum_{a,b\in\Sigma} \alpha_{ab} \vert a\rangle \langle b\vert

oraz

N=c,dΓβcdcd N = \sum_{c,d\in\Gamma} \beta_{cd} \vert c\rangle \langle d\vert

to macierz

MN=a,bΣc,dΓαabβcdacbd M \otimes N = \sum_{a,b\in\Sigma} \sum_{c,d\in\Gamma} \alpha_{ab} \beta_{cd} \vert ac \rangle \langle bd \vert

Równoważnie, iloczyn tensorowy MM i NN jest zdefiniowany przez równanie

acMNbd=aMbcNd\langle ac \vert M \otimes N \vert bd\rangle = \langle a \vert M \vert b\rangle \langle c \vert N \vert d\rangle

które jest prawdziwe dla każdego wyboru a,bΣa,b\in\Sigma oraz c,dΓ.c,d\in\Gamma.

Alternatywnym, lecz równoważnym sposobem opisu MNM\otimes N jest stwierdzenie, że jest to jedyna macierz spełniająca równanie

(MN)(ϕψ)=(Mϕ)(Nψ) (M \otimes N) \bigl( \vert \phi \rangle \otimes \vert \psi \rangle \bigr) = \bigl(M \vert\phi\rangle\bigr) \otimes \bigl(N \vert\psi\rangle\bigr)

dla każdego możliwego wyboru wektorów ϕ\vert\phi\rangle oraz ψ,\vert\psi\rangle, przy założeniu, że indeksy ϕ\vert\phi\rangle odpowiadają elementom Σ,\Sigma, a indeksy ψ\vert\psi\rangle odpowiadają Γ.\Gamma.

Zgodnie z opisaną wcześniej konwencją porządkowania elementów iloczynów kartezjańskich, możemy również jawnie zapisać iloczyn tensorowy dwóch macierzy w następujący sposób:

(α11α1mαm1αmm)(β11β1kβk1βkk)=(α11β11α11β1kα1mβ11α1mβ1kα11βk1α11βkkα1mβk1α1mβkkαm1β11αm1β1kαmmβ11αmmβ1kαm1βk1αm1βkkαmmβk1αmmβkk)\begin{gathered} \begin{pmatrix} \alpha_{11} & \cdots & \alpha_{1m} \\ \vdots & \ddots & \vdots \\ \alpha_{m1} & \cdots & \alpha_{mm} \end{pmatrix} \otimes \begin{pmatrix} \beta_{11} & \cdots & \beta_{1k} \\ \vdots & \ddots & \vdots\\ \beta_{k1} & \cdots & \beta_{kk} \end{pmatrix} \hspace{6cm}\\[8mm] \hspace{1cm} = \begin{pmatrix} \alpha_{11}\beta_{11} & \cdots & \alpha_{11}\beta_{1k} & & \alpha_{1m}\beta_{11} & \cdots & \alpha_{1m}\beta_{1k} \\ \vdots & \ddots & \vdots & \hspace{2mm}\cdots\hspace{2mm} & \vdots & \ddots & \vdots \\ \alpha_{11}\beta_{k1} & \cdots & \alpha_{11}\beta_{kk} & & \alpha_{1m}\beta_{k1} & \cdots & \alpha_{1m}\beta_{kk} \\[2mm] & \vdots & & \ddots & & \vdots & \\[2mm] \alpha_{m1}\beta_{11} & \cdots & \alpha_{m1}\beta_{1k} & & \alpha_{mm}\beta_{11} & \cdots & \alpha_{mm}\beta_{1k} \\ \vdots & \ddots & \vdots & \hspace{2mm}\cdots\hspace{2mm} & \vdots & \ddots & \vdots \\ \alpha_{m1}\beta_{k1} & \cdots & \alpha_{m1}\beta_{kk} & & \alpha_{mm}\beta_{k1} & \cdots & \alpha_{mm}\beta_{kk} \end{pmatrix} \end{gathered}

Iloczyny tensorowe trzech lub więcej macierzy definiuje się analogicznie. Jeśli M0,,Mn1M_0, \ldots, M_{n-1} są macierzami, których indeksy odpowiadają klasycznym zbiorom stanów Σ0,,Σn1,\Sigma_0,\ldots,\Sigma_{n-1}, to iloczyn tensorowy Mn1M0M_{n-1}\otimes\cdots\otimes M_0 jest zdefiniowany warunkiem, że

an1a0Mn1M0bn1b0=an1Mn1bn1a0M0b0\langle a_{n-1}\cdots a_0 \vert M_{n-1}\otimes\cdots\otimes M_0 \vert b_{n-1}\cdots b_0\rangle = \langle a_{n-1} \vert M_{n-1} \vert b_{n-1} \rangle \cdots\langle a_0 \vert M_0 \vert b_0 \rangle

dla każdego wyboru stanów klasycznych a0,b0Σ0,,an1,bn1Σn1.a_0,b_0\in\Sigma_0,\ldots,a_{n-1},b_{n-1}\in\Sigma_{n-1}. Alternatywnie, iloczyny tensorowe trzech lub więcej macierzy można zdefiniować rekurencyjnie, poprzez iloczyny tensorowe dwóch macierzy, podobnie jak obserwowaliśmy to w przypadku wektorów.

O iloczynie tensorowym macierzy mówi się czasami, że jest multiplikatywny, ponieważ równanie

(Mn1M0)(Nn1N0)=(Mn1Nn1)(M0N0) (M_{n-1}\otimes\cdots\otimes M_0)(N_{n-1}\otimes\cdots\otimes N_0) = (M_{n-1} N_{n-1})\otimes\cdots\otimes (M_0 N_0)

jest zawsze prawdziwe, dla dowolnego wyboru macierzy M0,,Mn1M_0,\ldots,M_{n-1} oraz N0,Nn1,N_0\ldots,N_{n-1}, pod warunkiem, że iloczyny M0N0,,Mn1Nn1M_0 N_0, \ldots, M_{n-1} N_{n-1} mają sens.

Operacje niezależne (ciąg dalszy)

Możemy teraz odpowiedzieć na zadane wcześniej pytanie: jeśli MM jest operacją probabilistyczną na X,\mathsf{X}, NN jest operacją probabilistyczną na Y,\mathsf{Y}, a obie operacje są wykonywane niezależnie, to wynikowa operacja na systemie złożonym (X,Y)(\mathsf{X},\mathsf{Y}) jest iloczynem tensorowym MN.M\otimes N.

Zatem zarówno dla stanów probabilistycznych, jak i dla operacji probabilistycznych iloczyny tensorowe reprezentują niezależność. Jeśli mamy dwa systemy X\mathsf{X} i Y,\mathsf{Y}, które niezależnie znajdują się w stanach probabilistycznych ϕ\vert\phi\rangle oraz ψ,\vert\psi\rangle, to system złożony (X,Y)(\mathsf{X},\mathsf{Y}) znajduje się w stanie probabilistycznym ϕψ;\vert\phi\rangle\otimes\vert\psi\rangle; a jeśli zastosujemy operacje probabilistyczne MM i NN do tych dwóch systemów niezależnie, to wynikowe działanie na systemie złożonym (X,Y)(\mathsf{X},\mathsf{Y}) jest opisane przez operację MN.M\otimes N.

Przyjrzyjmy się przykładowi, który przypomina operację probabilistyczną na pojedynczym bicie z poprzedniej lekcji: jeśli klasyczny stan bitu to 0,0, pozostaje on bez zmian; a jeśli klasyczny stan bitu to 1,1, to jest on zmieniany na 0 z prawdopodobieństwem 1/2.1/2. Zaobserwowaliśmy, że ta operacja jest reprezentowana przez macierz

(112012). \begin{pmatrix} 1 & \frac{1}{2}\\[1mm] 0 & \frac{1}{2} \end{pmatrix}.

Jeśli ta operacja jest wykonywana na bicie X,\mathsf{X}, a operacja NOT jest (niezależnie) wykonywana na drugim bicie Y,\mathsf{Y}, to łączna operacja na systemie złożonym (X,Y)(\mathsf{X},\mathsf{Y}) ma następującą reprezentację macierzową

(112012)(0110)=(01012101200001200120). \begin{pmatrix} 1 & \frac{1}{2}\\[1mm] 0 & \frac{1}{2} \end{pmatrix} \otimes \begin{pmatrix} 0 & 1\\[1mm] 1 & 0 \end{pmatrix} = \begin{pmatrix} 0 & 1 & 0 & \frac{1}{2} \\[1mm] 1 & 0 & \frac{1}{2} & 0 \\[1mm] 0 & 0 & 0 & \frac{1}{2} \\[1mm] 0 & 0 & \frac{1}{2} & 0 \end{pmatrix}.

Przez obserwację widzimy, że jest to macierz stochastic. Tak będzie zawsze: iloczyn tensorowy dwóch lub więcej macierzy stochastic jest zawsze stochastic.

Powszechną sytuacją, z którą się spotykamy, jest taka, w której jedna operacja jest wykonywana na jednym systemie, a z drugim nic się nie robi. W takim przypadku stosujemy dokładnie ten sam przepis, pamiętając, że nierobienie niczego jest reprezentowane przez macierz jednostkową. Na przykład, zresetowanie bitu X\mathsf{X} do stanu 00 i nierobienie niczego z Y\mathsf{Y} daje operację probabilistyczną (a w rzeczywistości deterministyczną) na (X,Y)(\mathsf{X},\mathsf{Y}) reprezentowaną przez macierz

(1100)(1001)=(1010010100000000). \begin{pmatrix} 1 & 1\\[1mm] 0 & 0 \end{pmatrix} \otimes \begin{pmatrix} 1 & 0\\[1mm] 0 & 1 \end{pmatrix} = \begin{pmatrix} 1 & 0 & 1 & 0 \\[1mm] 0 & 1 & 0 & 1 \\[1mm] 0 & 0 & 0 & 0 \\[1mm] 0 & 0 & 0 & 0 \end{pmatrix}.