Przejdź do głównej treści

Course introduction

Zanim zaczniesz, wypełnij tę krótką ankietę wstępną — jej wyniki są ważne, ponieważ pomagają nam ulepszać nasze materiały i doświadczenie użytkownika.

Note: This survey is provided by IBM Quantum and relates to the original English content. To give feedback on doQumentation's website, translations, or code execution, please open a GitHub issue.

Kliknij poniżej, aby wysłuchać wprowadzenia do kursu autorstwa Olivii Lanes, lub otwórz film w osobnym oknie na YouTube.

About this course

Witaj w kursie Quantum Computing in Practice — kursie skupionym na dzisiejszych komputerach kwantowych i sposobach wykorzystania ich w pełni. Omawia realistyczne potencjalne przypadki użycia obliczeń kwantowych, a także najlepsze praktyki uruchamiania i eksperymentowania z procesorami kwantowymi posiadającymi co najmniej 100 qubitów.

Quantum utility

To ekscytujący czas dla informatyki kwantowej. Po wielu latach teoretycznych i doświadczalnych prac badawczo-rozwojowych komputery kwantowe zbliżają się do punktu, w którym mogą zacząć konkurować z klasycznymi komputerami i demonstrować utility.

Utility to nie to samo co quantum advantage, który oznacza, że komputery kwantowe przewyższają klasyczne komputery w istotnych zadaniach. Klasyczne komputery mają niesamowitą moc i wszechstronność, a prawda jest taka, że komputery kwantowe po prostu nie są jeszcze w stanie ich pokonać. Przez dziesięciolecia obserwowaliśmy postępy w obliczeniach klasycznych — nie tylko w sprzęcie komputerowym, lecz także w algorytmach dla klasycznych komputerów — i wyraźnie widzimy, że technologia elektronicznych obliczeń cyfrowych radykalnie zmieniła nasz świat.

Informatyka kwantowa natomiast znajduje się na innym etapie rozwoju. Stawia ona ekstremalnie wysokie wymagania naszej kontroli nad układami mechaniki kwantowej i przesuwa granice dzisiejszej technologii — i nie możemy realistycznie oczekiwać, że opanujemy tę nową technologię i pokonamy klasyczne obliczenia już od razu po starcie. Widzimy jednak oznaki sugerujące, że komputery kwantowe zaczynają być konkurencyjne z klasycznymi metodami obliczeniowymi w wybranych zadaniach, co jest naturalnym krokiem w ewolucji technologicznej informatyki kwantowej, określanym mianem quantum utility.

W miarę jak technologia się rozwija i opracowywane są nowe metody obliczeń kwantowych, można zasadnie oczekiwać, że ich przewagi będą coraz bardziej wyraźne — wymaga to jednak czasu. Kiedy to nastąpi, prawdopodobnie będziemy obserwować wzajemne oddziaływanie z klasycznymi obliczeniami: demonstracje obliczeń kwantowych będą przeprowadzane, a obliczenia klasyczne będą odpowiadać, potem kolej znów przejdzie do obliczeń kwantowych — i ten wzorzec będzie się powtarzał. I pewnego dnia, gdy wydajności komputera kwantowego nie będzie można dorównać klasycznie, postawimy hipotezę, że zaobserwowaliśmy quantum advantage — lecz nawet wtedy nie będziemy mieć pewności! Udowodnienie wyników niemożliwości dla klasycznych komputerów jest samo w sobie problemem niemożliwie trudnym, o ile nam wiadomo.

Simulating Nature

Klasyczne symulatory — czyli programy komputerowe działające na klasycznych komputerach, które symulują układy fizyczne — mogą przewidywać zachowanie układów mechaniki kwantowej. Ale klasyczne symulatory nie są kwantowe i nie mogą bezpośrednio emulować układów kwantowych. Zamiast tego używają obliczeń matematycznych do przybliżenia zachowania kwantowego. W miarę wzrostu rozmiarów symulowanych układów koszty ogólne potrzebne do tego procesu dramatycznie rosną, ograniczając to, jakie układy kwantowe można symulować klasycznie, jak długo trwają symulacje i jak dokładne są wyniki.

Komputery kwantowe natomiast mogą emulować układy kwantowe bardziej bezpośrednio — w efekcie wymagane przez nie koszty ogólne skalują się znacznie lepiej wraz z rozrostem układu. To właśnie był pomysł Richarda Feynmana z lat 80. XX wieku, który jako pierwszy zainspirował badania nad potencjałem komputerów kwantowych. Powiemy o tym więcej później!

Badacze IBM® opublikowali w 2023 roku artykuł, który po raz pierwszy pokazał, że komputer kwantowy może konkurować z najnowocześniejszymi klasycznymi technikami symulacji określonego modelu fizycznego. Jego wyniki można wciąż dorównać zaawansowanymi technikami działającymi na klasycznych komputerach — jednak pobił on algorytmy brute-force, a ponadto dostarcza nowego punktu odniesienia, do którego można porównywać różne metody symulacji (które nie są dokładne i nie wszystkie zgadzają się w swoich przewidywaniach).

A focus on larger quantum processors

Dotychczasowi użytkownicy sprzętu kwantowego IBM mogli zauważyć, że mniejsze procesory, które wcześniej udostępnialiśmy publicznie, zostały wycofane z użytku, robiąc miejsce dla większych procesorów (posiadających 100+ qubitów). Te mniejsze procesory można było z łatwością symulować klasycznie. Dlatego choć stanowiły publicznie dostępne kamienie milowe w rozwijającej się technologii, nie mogły w żaden sposób demonstrować quantum utility: wszystko, co można było z nimi zrobić, równie łatwo można było wykonać przy użyciu klasycznej symulacji.

Przy około 100 qubitach sytuacja ta ulega jednak zmianie; procesory kwantowe tej wielkości nie mogą być już dłużej symulowane klasycznie. Oznacza to swego rodzaju przemianę fazową w nową erę technologii obliczeń kwantowych, w której istnieje potencjał do przewyższenia klasycznych obliczeń. To tutaj IBM zdecydował się skupić swoją uwagę — by szukać mocy obliczeniowej komputerów kwantowych i dążyć do ostatecznego quantum advantage.

Zachęcamy naszych użytkowników, aby korzystali z tych nowych urządzeń w pełni ich możliwości, eksperymentowali z nimi i sprawdzali ich granice, a zdobyte doświadczenia przenosili na kolejną generację procesorów kwantowych, która jest obecnie w fazie rozwoju. Celem tego kursu jest umożliwienie ci właśnie tego!

Audience and course goals

Ten kurs jest przeznaczony dla każdego, kto dąży do opracowania nowych zastosowań dla komputerów kwantowych, chce rozszerzyć swoje obecne prace w dziedzinie informatyki kwantowej lub nauczyć się, jak używać procesorów kwantowych w swoim przepływie pracy. Obejmuje to nie tylko fizyków i informatyków, ale także inżynierów, chemików, naukowców zajmujących się materiałami i wszystkich innych zainteresowanych opanowaniem sprzętu do obliczeń kwantowych.

Kurs będzie praktyczny i skupiony na praktycznym zastosowaniu komputerów kwantowych. Poniższe tematy i umiejętności należą do tych, które omawia:

  • Uruchamianie zadań w skali utility-scale na procesorach kwantowych poprzez Qiskit Runtime
  • Używanie technik mitygacji błędów w celu poprawy wyników sprzętowych
  • Potencjalne obszary zastosowań dla komputerów kwantowych w bliskiej perspektywie

Kurs nie obejmuje wprowadzającej teorii informatyki kwantowej i zakłada podstawową znajomość qubitów oraz obwodów kwantowych. Kurs Basics of quantum information na tej platformie obejmuje ten materiał i jest zalecany jako pierwszy dla osób dopiero zaczynających przygodę z informatyką kwantową.

The story of computation

Obliczenia kwantowe to ekscytująca nowa technologia znajdująca się we wczesnym stadium rozwoju — ale to tylko jeden rozdział historii sięgającej tysiące lat wstecz. To historia obliczeń i ich wielowymiarowych powiązań ze światem fizycznym.

Computing devices since ancient times

Od zarania dziejów ludzie musieli wykonywać obliczenia — innymi słowy, przetwarzać informacje według określonych reguł i ograniczeń — aby umożliwić komunikację, budownictwo, handel, naukę i inne dziedziny życia. Szukaliśmy wsparcia w świecie fizycznym i dzięki pomysłowym odkryciom konstruowaliśmy urządzenia pomagające nam obliczać.

Dawno temu urządzenia wykonane z drewna, kości i węzłowanych sznurów przechowywały informacje i ułatwiały obliczenia. Mechaniczne urządzenia zbudowane z dźwigni, kół zębatych i innej maszynerii ewoluowały od wczesnych zegarów astronomicznych przez kalkulatory aż do zaawansowanych urządzeń obliczeniowych, takich jak analizatory różniczkowe, które rozwiązywały równania za pomocą kół i obracających się dysków. Nawet technologia pisma odegrała istotną rolę w tej historii, umożliwiając ludziom wykonywanie obliczeń, które inaczej byłyby niemożliwe.

Kiedy dziś myślimy o komputerach, mamy na myśli elektroniczne komputery cyfrowe. Ale to w rzeczywistości stosunkowo nowa technologia: pierwsze elektroniczne komputery cyfrowe powstały w latach czterdziestych XX wieku. (Dla porównania, sumeryjski abakus miał zostać wynaleziony gdzieś między 2700 a 2300 r. p.n.e.) Od tamtej pory technologia rozwinęła się dramatycznie i komputery są dziś wszechobecne. Znajdziemy je w domach, miejscach pracy i pojazdach, które nas między nimi przewożą, a wielu z nas nosi je ze sobą wszędzie.

Mamy też superkomputery — duże zbiory wydajnych klasycznych procesorów połączonych równolegle. Należą do najlepszych narzędzi, jakie ludzkość kiedykolwiek zbudowała do rozwiązywania trudnych problemów, a ich moc i niezawodność wciąż rosną. Jednak nadal istnieją ważne problemy obliczeniowe, których nawet te kolosy nigdy nie będą w stanie rozwiązać — ze względu na wrodzoną trudność obliczeniową tych problemów.

Connections to the physical world

Komputery mają wiele zastosowań. Jednym z ważniejszych jest poznawanie świata fizycznego i lepsze rozumienie jego wzorców. Historyczne zastosowania w tej kategorii obejmują przewidywanie zaćmień i przypływów, rozumienie ruchu ciał niebieskich oraz — w nieco nowszych czasach — modelowanie eksplozji. Dziś nie ma praktycznie żadnego laboratorium fizycznego na świecie bez komputera.

Ogólnie rzecz biorąc, fizyka i obliczenia zawsze były ze sobą splecione. Obliczenia nie mogą istnieć w próżni: informacja potrzebuje nośnika, a do obliczania musimy w jakimś sensie korzystać ze świata fizycznego. Rolf Landauer, informatyk (i pracownik IBM), zauważył dziesiątki lat temu, że informacja jest fizyczna — istnieje wyłącznie poprzez fizyczną reprezentację. Zasada Landauera ustanawia związek między informacją a prawami termodynamiki, choć w rzeczywistości takich powiązań jest wiele.

Rozumienie świata fizycznego to cel fizyki jako dyscypliny, ale w istocie jest to droga dwukierunkowa. Dzięki naszemu rozumieniu świata fizycznego potrafimy wykorzystywać nowe technologie, które pomagają nam obliczać, a za ich pośrednictwem wciąż poznajemy świat fizyczny — w zasadzie wyciągając fizykę i technologię obliczeniową za własne sznurowadła.

Moore's law

Prawo Moore'a to obserwacja, że maksymalna liczba tranzystorów w układzie scalonym podwaja się mniej więcej co 2 lata. Przez ostatnie ponad 5 dekad nie tylko obserwowaliśmy ten trend, ale też czerpaliśmy z jego owoców. Dzięki większej liczbie tranzystorów na chipie możemy wykonywać bardziej złożone obliczenia i robić to szybciej. Właśnie dlatego komputery stawały się coraz potężniejsze z biegiem czasu.

Jednak „prawo" Moore'a z konieczności zbliża się ku końcowi. Eksperci spierają się o to, kiedy to nastąpi, a niektórzy twierdzą, że już nastąpiło. Wiemy jednak na pewno, że musi to nieuchronnie nastąpić, ponieważ istnieje teoretyczny limit miniaturyzacji komponentów obliczeniowych. Nie możemy zrobić tranzystora mniejszego niż atom! Choć może to brzmieć przesadnie, to właśnie ściana, do której się zbliżamy.

Rozwiązaniem nie jest rezygnacja i stwierdzenie: „Cóż, to już wszystko, na co nas stać." To stoi w sprzeczności z ludzką naturą. Zamiast tego musimy szukać w świecie fizycznym nowych narzędzi obliczeniowych — i tu właśnie wkraczają obliczenia kwantowe.

Quantum computing

Quantum mechanics and computation

Mechanika kwantowa została odkryta na początku XX wieku i odegrała już ważną rolę w dziedzinie obliczeń. Nasze rozumienie mechaniki kwantowej przyczyniło się w znacznej mierze do tego, że współczesne komputery w ogóle są możliwe. Trudno sobie wyobrazić, by bez mechaniki kwantowej wynaleziono na przykład dysk twardy na nośnikach półprzewodnikowych.

Quantum computing in theory

Kiedy Richard Feynman po raz pierwszy zaproponował koncepcję komputera kwantowego w 1982 roku, skupiał się na symulowaniu kwantowych układów mechanicznych. Obliczenia potrzebne do tego wydawały się zbyt trudne dla zwykłych komputerów — ale być może przy użyciu komputera działającego zgodnie z kwantowym opisem świata układy te można by emulować bezpośrednio.

Dziś jest to jeden z najbardziej obiecujących kierunków w quantum computing. Według naszego najlepszego rozumienia Natura nie jest klasyczna — jest kwantowa. Dlatego komputery kwantowe mogą być cennymi narzędziami do jej poznawania. Komputery klasyczne mogą jedynie przybliżać to, co faktycznie zachodzi w Naturze, a w niektórych przypadkach te przybliżenia są bardzo ograniczone.

Jednym ze sposobów myślenia o tym jest analogia do tuneli aerodynamicznych. Dynamika płynów jest notorycznie trudna do symulowania i przewidywania matematycznego. Na przykład symulowanie samochodu jadącego przez wiatr jest zbyt kosztowne i niepraktyczne, więc producenci samochodów budują tunele z przepływającym powietrzem i przepuszczają przez nie samochody, by testować ich osiągi. Innymi słowy: tworzą wiatr zamiast go symulować. Budowanie komputera kwantowego do badania świata fizycznego przypomina nieco budowanie tunelu aerodynamicznego do badania wpływu wiatru na samochody. Komputery kwantowe mogą bezpośrednio emulować prawa Natury na poziomie cząsteczkowym, ponieważ same działają zgodnie z tymi prawami — co oznacza, że emulują Naturę, zamiast symulować ją za pomocą formuł i obliczeń.

Inni naukowcy rozwinęli idee Feynmana i powiązali je z teorią informacji kwantowej, której rozwój był już w toku. Narodziła się dziedzina informacji i obliczeń kwantowych. Od tamtej pory rozwinęła się w bogatą, multidyscyplinarną dziedzinę badań i zidentyfikowano liczne przewagi informacji i obliczeń kwantowych nad klasycznymi w szerokim zakresie teoretycznych zastosowań obejmujących komunikację, obliczenia i kryptografię.

Quantum computing in practice

W praktyce, aby przenieść tego rodzaju teoretyczne przewagi do rzeczywistych zastosowań, potrzebne są dwie rzeczy: same urządzenia oraz metodologie pozwalające na wykorzystanie ich potencjału.

W przeciwieństwie do komputerów klasycznych, nikt nie nosi komputera kwantowego w kieszeni. Jeszcze do niedawna, jeśli chciałeś eksperymentować z komputerem kwantowym, musiałeś samodzielnie go zbudować i utrzymywać (zazwyczaj w przygnębiającym laboratorium w piwnicy uczelni lub ośrodka badawczego), a do dyspozycji miałeś co najwyżej kilka bardzo zaszumionych qubitów. To się już zmieniło. W 2016 roku IBM Quantum® udostępnił pierwszy procesor kwantowy w chmurze. Miał zaledwie 5 qubitów i dość wysoki wskaźnik błędów, ale od tamtego czasu zaszliśmy bardzo daleko. Podsumujemy aktualny stan technologii w dalszej części.

Oprócz budowania komputerów kwantowych musimy też rozwijać metodologie ich efektywnego wykorzystania. Choć teoretyczne postępy w algorytmach i protokołach kwantowych sugerują duży potencjał, wyzwanie znalezienia praktycznych zastosowań dla quantum computing wciąż przed nami. Dzisiejsze komputery kwantowe nie są jeszcze w stanie wykonywać odpornych na błędy obliczeń potrzebnych do przełożenia znanych teoretycznych przewag na przewagi praktyczne. Wykraczają jednak poza zasięg klasycznych symulacji komputerowych i możemy dążyć do wykorzystania tego faktu jako źródła mocy obliczeniowej.

Dzięki tym postępom dysponujemy nowym narzędziem do obliczeń i od nas zależy, co z nim zrobimy.

Potential applications

Nie oczekuje się, że quantum computing przyda się do badania zachowania samochodów w wietrze. Są jednak inne procesy fizyczne — takie jak te związane z projektowaniem baterii lub pewnymi reakcjami chemicznymi — w których zdolność komputera kwantowego do emulowania Natury może prowadzić do przewagi kwantowej. Mówiąc ogólniej, istnieje wiele problemów zbyt trudnych lub kosztownych nawet dla najnowocześniejszych superkomputerów, w tym problemów mających duże znaczenie dla naszego społeczeństwa. Quantum computing może nie oferować rozwiązań dla wszystkich z nich, ale mogłoby je oferować dla niektórych.

Poniższe trzy obszary zastosowań stanowią cele w dziedzinie zaszumionego quantum computing, zanim zostanie wdrożona kwantowa korekcja błędów i odporność na błędy.

  • Optymalizacja
  • Symulowanie Natury
  • Znajdowanie struktury w danych (w tym uczenie maszynowe)

Omówimy te tematy szczegółowo w dalszej części kursu.

State of the technology

Budowanie komputerów kwantowych to trudne wyzwanie technologiczne, a od kiedy małe komputery kwantowe stały się publicznie dostępne, minęło zaledwie 8 lat. W ciągu tych 8 lat poczyniliśmy postępy na wielu frontach.

Wiele procesorów kwantowych IBM jest teraz dostępnych przez chmurę, a każdy z nich ma ponad 100 qubitów. Jednak nie tylko rozmiar procesorów jest ważny — to tylko jedna z metryk, na której nam zależy. Jakość Gate'ów również dramatycznie wzrosła, a ponadto wprowadziliśmy metody redukcji i łagodzenia błędów wewnętrznych dla układów kwantowych, nawet gdy jednocześnie pracujemy nad tworzeniem systemów odpornych na błędy. Trzy podstawowe metryki — skala, jakość i prędkość — mają kluczowe znaczenie dla śledzenia postępu wydajności.

  • Rozmiar. Więcej qubitów jest oczywiście lepsze, ale tylko wtedy, gdy zwiększanie ich liczby nie pogarsza wydajności (co może mieć miejsce). W rzeczywistości chcemy mieć więcej qubitów dobrej jakości, które nie zakłócają się nawzajem poprzez przesłuch, gdy tego nie chcemy. Ważny jest też sposób połączenia qubitów ze sobą i ustalenie, jak najlepiej to zrobić, stanowi wyzwanie dla Circuitów z qubitami nadprzewodzącymi.

  • Jakość. Inną ważną metryką, którą obserwujemy, aby śledzić poprawę wydajności w czasie, jest wierność Gate'ów 2-qubitowych. Gate'y działające na pojedynczych qubitach nie są tak podatne na błędy jak Gate'y 2-qubitowe, które stanowią zatem większy problem. (Gate'y 2-qubitowe są również kluczowe, ponieważ odpowiadają za tworzenie splątania między qubitami, co uznaje się za jedno ze zjawisk fizycznych nadających quantum computing jego moc.)

  • Prędkość. Na końcu mamy prędkość i wydajność. Krótko mówiąc, czas poświęcony na uruchomienie programu (obejmujący zarówno części kwantowe, jak i klasyczne) powinien być możliwie jak najkrótszy.

Conclusion

To naprawdę ekscytujący czas na pracę w dziedzinie quantum computing: po raz pierwszy w historii możemy zacząć eksplorować obszar obliczeń leżący poza obliczeniami klasycznymi.

T.J. Watson kiedyś sławnie przewidział, że światowy rynek będzie potrzebował zaledwie kilku komputerów. Możemy się teraz śmiać z tego, jak bardzo się mylił — ale robiąc to, musimy zdać sobie sprawę, że mamy przywilej wiedzy wstecznej. Powinniśmy też przyznać, że jako ludzie mamy ogólną tendencję do drastycznego niedoceniania potencjału przyszłych technologii. Teraz, gdy przyszła nasza kolej i obejmujemy role wczesnych pionierów quantum computing, powinniśmy o tym pamiętać.

Quantum computing jest często zestawiane z obliczeniami klasycznymi jako coś wyraźnie odmiennego i z nimi konkurującego. Patrząc jednak szerzej, możemy postrzegać quantum computing po prostu jako jeszcze jeden rozdział w długiej historii. Leży w naszej naturze jako ludzi poszukiwanie nowych sposobów obliczania i wykorzystywanie mocy, jaką daje nam świat naturalny, do realizacji tego celu. Robimy to od wieków.