Przejdź do głównej treści

The phase estimation problem

Ta część lekcji wyjaśnia problem estymacji fazy. Zaczniemy od krótkiego omówienia twierdzenia spektralnego z algebry liniowej, a następnie przejdziemy do sformułowania samego problemu estymacji fazy.

Spectral theorem

Twierdzenie spektralne to ważny fakt z algebry liniowej, który stwierdza, że macierze pewnego rodzaju — zwane normal matrices — można wyrazić w prosty i użyteczny sposób. W tej lekcji będziemy potrzebować tego twierdzenia wyłącznie dla macierzy unitary, ale dalej w tej serii zastosujemy je również do macierzy Hermitian.

Normal matrices

O kwadratowej macierzy MM o elementach zespolonych mówimy, że jest normal, jeśli komutuje ze swoją sprzężoną transpozycją: MM=MM.M M^{\dagger} = M^{\dagger} M.

Każda macierz unitary UU jest normal, ponieważ

UU=I=UU.U U^{\dagger} = \mathbb{I} = U^{\dagger} U.

Macierze Hermitian, czyli macierze równe swojej sprzężonej transpozycji, to kolejna ważna klasa normal matrices. Jeśli HH jest macierzą Hermitian, to

HH=H2=HH,H H^{\dagger} = H^2 = H^{\dagger} H,

więc HH jest normal.

Nie każda macierz kwadratowa jest normal. Na przykład ta macierz nie jest normal:

(0100)\begin{pmatrix} 0 & 1\\ 0 & 0 \end{pmatrix}

(To prosty, ale świetny przykład macierzy, którą warto często brać pod uwagę.) Nie jest normal, ponieważ

(0100)(0100)=(0100)(0010)=(1000)\begin{pmatrix} 0 & 1\\ 0 & 0 \end{pmatrix} \begin{pmatrix} 0 & 1\\ 0 & 0 \end{pmatrix}^{\dagger} = \begin{pmatrix} 0 & 1\\ 0 & 0 \end{pmatrix} \begin{pmatrix} 0 & 0\\ 1 & 0 \end{pmatrix} = \begin{pmatrix} 1 & 0\\ 0 & 0 \end{pmatrix}

podczas gdy

(0100)(0100)=(0010)(0100)=(0001).\begin{pmatrix} 0 & 1\\ 0 & 0 \end{pmatrix}^{\dagger} \begin{pmatrix} 0 & 1\\ 0 & 0 \end{pmatrix} = \begin{pmatrix} 0 & 0\\ 1 & 0 \end{pmatrix} \begin{pmatrix} 0 & 1\\ 0 & 0 \end{pmatrix} = \begin{pmatrix} 0 & 0\\ 0 & 1 \end{pmatrix}.

Sformułowanie twierdzenia

Oto teraz sformułowanie twierdzenia spektralnego.

Twierdzenie

Twierdzenie spektralne (spectral theorem): Niech MM będzie normalną macierzą zespoloną wymiaru N×NN\times N. Istnieje orthonormal basis (baza ortonormalna) NN-wymiarowych wektorów zespolonych {ψ1,,ψN}\bigl\{ \vert\psi_1\rangle,\ldots,\vert\psi_N\rangle \bigr\} oraz liczby zespolone λ1,,λN\lambda_1,\ldots,\lambda_N takie, że

M=λ1ψ1ψ1++λNψNψN.M = \lambda_1 \vert \psi_1\rangle\langle \psi_1\vert + \cdots + \lambda_N \vert \psi_N\rangle\langle \psi_N\vert.

Zapis macierzy w postaci

M=k=1Nλkψkψk(1)M = \sum_{k = 1}^N \lambda_k \vert \psi_k\rangle\langle \psi_k\vert \tag{1}

nazywamy powszechnie rozkładem spektralnym (spectral decomposition). Zauważmy, że jeśli MM jest macierzą normalną zapisaną w postaci (1),(1), to równanie

Mψj=λjψjM \vert \psi_j \rangle = \lambda_j \vert \psi_j \rangle

musi zachodzić dla każdego j=1,,N.j = 1,\ldots,N. Wynika to z faktu, że {ψ1,,ψN}\bigl\{ \vert\psi_1\rangle,\ldots,\vert\psi_N\rangle \bigr\} jest orthonormal:

Mψj=(k=1Nλkψkψk)ψj=k=1Nλkψkψkψj=λjψjM \vert \psi_j \rangle = \left(\sum_{k = 1}^N \lambda_k \vert \psi_k\rangle\langle \psi_k\vert\right)\vert \psi_j\rangle = \sum_{k = 1}^N \lambda_k \vert \psi_k\rangle\langle \psi_k\vert\psi_j \rangle = \lambda_j \vert\psi_j \rangle

Innymi słowy, każda liczba λj\lambda_j jest eigenvalue (wartością własną) macierzy M,M, a ψj\vert\psi_j\rangle jest eigenvector (wektorem własnym) odpowiadającym tej wartości własnej.

  • Przykład 1. Niech

    I=(1001),\mathbb{I} = \begin{pmatrix}1 & 0\\0 & 1\end{pmatrix},

    co jest macierzą normalną. Z twierdzenia wynika, że I\mathbb{I} można zapisać w postaci (1)(1) dla pewnego wyboru λ1,\lambda_1, λ2,\lambda_2, ψ1\vert\psi_1\rangle i ψ2.\vert\psi_2\rangle. Istnieje wiele poprawnych wyborów, w tym

    λ1=1,λ2=1,ψ1=0,ψ2=1.\lambda_1 = 1, \hspace{5pt} \lambda_2 = 1, \hspace{5pt} \vert\psi_1\rangle = \vert 0\rangle, \hspace{5pt} \vert\psi_2\rangle = \vert 1\rangle.

    Zauważmy, że twierdzenie nie mówi, że liczby zespolone λ1,,λN\lambda_1,\ldots,\lambda_N są parami różne — ta sama liczba zespolona może się powtarzać, co jest konieczne w tym przykładzie. Powyższe wybory są poprawne, ponieważ

    I=00+11.\mathbb{I} = \vert 0\rangle\langle 0\vert + \vert 1\rangle\langle 1\vert.

    Co więcej, możemy wybrać {ψ1,ψ2}\{\vert\psi_1\rangle,\vert\psi_2\rangle\} jako dowolną orthonormal basis i równanie nadal będzie prawdziwe. Na przykład:

    I=+++.\mathbb{I} = \vert +\rangle\langle +\vert + \vert -\rangle\langle -\vert.
  • Przykład 2. Rozważmy operację Hadamarda.

    H=12(1111)H = \frac{1}{\sqrt{2}} \begin{pmatrix} 1 & 1\\[1mm] 1 & -1 \end{pmatrix}

    Jest to macierz unitary, a więc normalna. Z twierdzenia spektralnego wynika, że HH można zapisać w postaci (1),(1), a w szczególności mamy

    H=ψπ/8ψπ/8ψ5π/8ψ5π/8H = \vert\psi_{\pi/8}\rangle \langle \psi_{\pi/8}\vert - \vert\psi_{5\pi/8}\rangle \langle \psi_{5\pi/8}\vert

    gdzie

    ψθ=cos(θ)0+sin(θ)1.\vert\psi_{\theta}\rangle = \cos(\theta)\vert 0\rangle + \sin(\theta) \vert 1\rangle.

    Bardziej szczegółowo:

    ψπ/8=2+220+2221,ψ5π/8=2220+2+221.\begin{aligned} \vert\psi_{\pi/8}\rangle & = \frac{\sqrt{2 + \sqrt{2}}}{2}\vert 0\rangle + \frac{\sqrt{2 - \sqrt{2}}}{2}\vert 1\rangle, \\[3mm] \vert\psi_{5\pi/8}\rangle & = -\frac{\sqrt{2 - \sqrt{2}}}{2}\vert 0\rangle + \frac{\sqrt{2 + \sqrt{2}}}{2}\vert 1\rangle. \end{aligned}

    Możemy sprawdzić poprawność tego rozkładu, wykonując wymagane obliczenia:

    ψπ/8ψπ/8ψ5π/8ψ5π/8=(2+242424224)(22424242+24)=H.\vert\psi_{\pi/8}\rangle \langle \psi_{\pi/8}\vert - \vert\psi_{5\pi/8}\rangle \langle \psi_{5\pi/8}\vert = \begin{pmatrix} \frac{2 + \sqrt{2}}{4} & \frac{\sqrt{2}}{4}\\[2mm] \frac{\sqrt{2}}{4} & \frac{2 - \sqrt{2}}{4} \end{pmatrix} - \begin{pmatrix} \frac{2 - \sqrt{2}}{4} & -\frac{\sqrt{2}}{4}\\[2mm] -\frac{\sqrt{2}}{4} & \frac{2 + \sqrt{2}}{4} \end{pmatrix} = H.

Jak pokazuje pierwszy z powyższych przykładów, przy wyborze eigenvectors (wektorów własnych) istnieje pewna swoboda. Nie ma natomiast żadnej swobody w wyborze eigenvalues (wartości własnych), poza ich kolejnością: te same NN liczb zespolonych λ1,,λN,\lambda_1,\ldots,\lambda_N, które mogą zawierać powtórzenia tej samej liczby, zawsze będą występować w równaniu (1)(1) dla danej macierzy M.M.

Skupmy się teraz na macierzach unitary. Załóżmy, że mamy liczbę zespoloną λ\lambda i niezerowy wektor ψ\vert\psi\rangle spełniające równanie

Uψ=λψ.(2)U\vert\psi\rangle = \lambda\vert\psi\rangle. \tag{2}

Czyli λ\lambda jest eigenvalue macierzy U,U, a ψ\vert\psi\rangle jest eigenvector odpowiadającym tej wartości własnej.

Macierze unitary zachowują normę euklidesową, więc z (2)(2) wyciągamy następujący wniosek.

ψ=Uψ=λψ=λψ\bigl\| \vert\psi\rangle \bigr\| = \bigl\| U \vert\psi\rangle \bigr\| = \bigl\| \lambda \vert\psi\rangle \bigr\| = \vert \lambda \vert \bigl\| \vert\psi\rangle \bigr\|

Z tego, że ψ\vert\psi\rangle jest niezerowy, wynika ψ0,\bigl\| \vert\psi\rangle \bigr\|\neq 0, więc możemy skrócić obie strony i otrzymać

λ=1.\vert \lambda \vert = 1.

Oznacza to, że eigenvalues macierzy unitary muszą mieć moduł równy jeden, a zatem leżą na okręgu jednostkowym (unit circle).

T={αC:α=1}\mathbb{T} = \{\alpha\in\mathbb{C} : \vert\alpha\vert = 1\}

(Symbol T\mathbb{T} jest powszechnie używaną nazwą dla zespolonego okręgu jednostkowego. Często spotyka się też nazwę S1S^1.)

Phase estimation problem statement

W problemie phase estimation dane są: stan kwantowy ψ\vert \psi\rangle złożony z nn qubitów oraz unitarny obwód kwantowy działający na nn qubitach. Zakładamy, że ψ\vert \psi\rangle jest eigenvectorem macierzy unitarnej UU opisującej działanie tego obwodu, a naszym celem jest obliczenie lub przybliżenie eigenvalue λ\lambda, któremu odpowiada ψ\vert \psi\rangle. Dokładniej, ponieważ λ\lambda leży na zespolonej okręgu jednostkowym, możemy zapisać

λ=e2πiθ\lambda = e^{2\pi i \theta}

dla jednoznacznie wyznaczonej liczby rzeczywistej θ\theta spełniającej 0θ<1.0\leq\theta<1. Celem problemu jest obliczenie lub przybliżenie tej liczby rzeczywistej θ.\theta.

Phase estimation problem

Wejście: unitarny obwód kwantowy dla nn-qubitowej operacji UU wraz z nn-qubitowym stanem kwantowym ψ\vert\psi\rangle
Założenie: ψ\vert\psi\rangle jest eigenvectorem UU
Wyjście: przybliżenie liczby θ[0,1)\theta\in[0,1) spełniającej Uψ=e2πiθψU\vert\psi\rangle = e^{2\pi i \theta}\vert\psi\rangle

Kilka uwag dotyczących tego sformułowania problemu:

  1. Problem phase estimation różni się od innych problemów, które poznałeś dotychczas w tym kursie, tym że wejście zawiera stan kwantowy. Zazwyczaj skupiamy się na problemach z klasycznymi wejściami i wyjściami, ale nic nie stoi na przeszkodzie, by rozważać takie kwantowe stany wejściowe jak tutaj. Jeśli chodzi o praktyczne zastosowania, problem phase estimation najczęściej pojawia się jako podproblem w ramach większego obliczenia — tak jak zobaczymy w kontekście faktoryzacji liczb całkowitych w dalszej części lekcji.

  2. Powyższe sformułowanie problemu phase estimation nie precyzuje, czym dokładnie jest przybliżenie θ,\theta, jednak możemy formułować bardziej szczegółowe wersje problemu w zależności od naszych potrzeb i zainteresowań. W kontekście faktoryzacji liczb całkowitych będziemy wymagać bardzo dokładnego przybliżenia θ,\theta, lecz w innych przypadkach może wystarczyć nam bardzo przybliżona wartość. Wkrótce omówimy, jak wymagana precyzja wpływa na koszt obliczeniowy rozwiązania.