Czym są technologie kwantowe?

Quantum AI Foundation
17 min readSep 17, 2023

--

Historia mechaniki kwantowej

Pod koniec XIX i na początku XX wieku dwie kluczowe teorie fizyczne, czyli mechanika klasyczna i elektrodynamika, wydawały się w pełni wyjaśniać większość znanych wówczas zjawisk. Jednak pojawiło się tajemnicze zjawisko związane z promieniowaniem ciała doskonale czarnego, które nie dało się wytłumaczyć za pomocą istniejących teorii. Aby wyjaśnić to zjawisko, w 1900 roku Max Planck wprowadził nowe, pozornie dziwne zasady kwantowania energii, co otworzyło drzwi do rewolucji w fizyce [1].

Reguły te szybko zaakceptowali i wykorzystali inni wybitni uczeni, tacy jak Albert Einstein (badając efekt fotoelektryczny [2]), Niels Bohr (tworząc model atomu wodoru [3]), Louis de Broglie (wprowadzając dualizm korpuskularno-falowy [4]), Werner Heisenberg (tworząc mechanikę macierzową [5]) i Erwin Schrödinger (rozwijając mechanikę falową opartą na funkcji falowej [6]). Wszystko to doprowadziło do powstania zupełnie nowego obrazu mikroskopowego świata, który wyrażony został przez teorie kwantowe.

Od tamtej pory rozpoczęła się rewolucja w dziedzinie teorii fizycznych
i technologii kwantowych. Poza wprowadzeniem zasady kwantowania energii, teoria kwantowa pozwoliła na lepsze zrozumienie wielu zjawisk, takich jak struktura atomów, czy procesy zachodzące w gwiazdach, a także pozwoliła opracować mikroskopy elektronowe, rozwijać technologie laserowe, badać nadprzewodniki oraz cząstki elementarne. Okazało się, że znana wcześniej fizyka “klasyczna” jest tylko specjalnym przypadkiem mechaniki kwantowej [7].

Współczesna fizyka posuwa się jeszcze dalej, łącząc szczególną teorię względności z mechaniką kwantową w ramach tzw. “kwantowych teorii pola”, która opisuje fundamentalne oddziaływania między cząstkami elementarnymi [8]. Ponadto prowadzone są badania nad obiektami wielowymiarowymi [9, 10], chociaż nie osiągnięto jeszcze pełnego zrozumienia tzw. kwantowej teorii grawitacji [11], która połączyłaby mechanikę kwantową z ogólną teorią względności. Wciąż istnieją obszary nie do końca zrozumiane, które czekają na nowe odkrycia i badania. To fascynujący czas dla fizyki, pełen niespodzianek i potencjalnych przełomów.

Mechanikę kwantową stanowi tajemniczy świat opisywany przez wiele matematycznych zasad. Nawet dla doświadczonych fizyków te zasady mogą być trudne do zrozumienia. Jeden z najbardziej znanych paradoksów, który miał na celu uwydatnienie zagadkowości mechaniki kwantowej, został przedstawiony w 1935 roku przez Alberta Einsteina, Borysa Podolskiego i Nathana Rosena (stąd jego nazwa: paradoks EPR [12]). Sugerowali oni, że istnienie tzw. stanów splątanych (przewidywanych przez mechanikę kwantową) prowadziłoby do natychmiastowej komunikacji, co stanowiłoby sprzeczność z ograniczeniem prędkości przesyłu informacji, czyli prędkością światła w próżni. W 1964 roku John Bell sformułował twierdzenie (znane obecnie jako twierdzenie Bella), które pokazało, że dla stanów splątanych żadna klasyczna teoria zgodna z teorią względności nie jest zgodna z przewidywaniami mechaniki kwantowej [13]. To twierdzenie otworzyło nowe horyzonty badawcze i stanowi obecnie fundament informatyki kwantowej. Zostało ono również potwierdzone w licznych przeprowadzonych eksperymentach. Alain Aspect przeprowadził jeden z pierwszych takich eksperymentów [14], potwierdzając brak tzw. zmiennych ukrytych w mechanice kwantowej. Zmienne takie (ukryte) odpowiadałyby niemierzonym bezpośrednio klasycznym własnościom badanych układów, które wyjaśniałoby wyniki eksperymentów. W kolejnych latach Simon Kochen i Ernst Specker opracowali teorię wykluczającą wiele interpretacji mechaniki kwantowej, które opierały się na hipotezie realizmu [15]. Wyniki tych badań również zostały eksperymentalnie potwierdzone na korzyść mechaniki kwantowej.

W latach 80-tych XX wieku naukowcy rozważali również możliwość wykorzystania efektów kwantowych do przesyłania informacji szybciej niż światło. Doprowadziło to do sformułowania twierdzenia o niemożliwości klonowania stanu kwantowego [16]. To twierdzenie było jednym z pierwszych wyprowadzonych w ramach kwantowej teorii informacji, wprowadzającej teoretyczne możliwości przechowywania i przetwarzania informacji w sposób kwantowy. Warto dodać, że teoria kwantowa miała również ogromny wpływ na rozwój technologii, umożliwiając manipulowanie pojedynczymi atomami w pułapkach magnetycznych oraz wykorzystując skaningowe mikroskopy elektronowe. Dzięki tym technologiom możemy dzisiaj tworzyć procesory oparte na kubitach, które reprezentują podstawowe jednostki obliczeń kwantowych. To otwiera drogę do realizacji algorytmów opartych na zasadach teorii kwantowej.

Początki obliczeń kwantowych

Dzisiejszy świat nie mógłby istnieć bez maszyn, które potrafią analizować, symulować i optymalizować rozwiązania bardzo złożonych problemów obliczeniowych, a nawet tworzyć treści, takie jak teksty, obrazy, filmy, czy nawet programy komputerowe. Choć kształt i rozmiar komputerów ewoluuje, to nadal ich działanie opiera się na teoretycznych rozwiązaniach zaproponowanych przez Alana Turinga i John’a von Neumanna. W 1936 roku Alan Turing opisał tzw. maszynę Turinga [17], która stała się prekursorem teoretycznych podstaw obliczeń komputerowych i wskazał klasę problemów, które mogą być przez tą maszynę rozwiązane. Z kolei von Neumann zaproponował architekturę komputerów, która stanowi podstawę również współczesnych maszyn wykonujących obliczenia [18].

Nowe modele przetwarzania informacji (zgodnie z kwantową teorią informacji) wprowadza informatyka kwantowa, która do rozwiązywania problemów obliczeniowych wykorzystuje prawa mechaniki kwantowej. Historia obliczeń kwantowych jest fascynująca i ma również kilka polskich akcentów. Początki sięgają lat siedemdziesiątych dwudziestego wieku, kiedy to w 1976 polski fizyk Roman Stanisław Ingarden przedstawił wspomnianą teorię informacji kwantowej, dzięki której jest obecnie uznawany za jednego z ojców tej dziedziny [19]. Następnie w 1979, Paul Benioff zaproponował model kwantowej maszyny Turinga, która rozwiązywałaby problemy w oparciu o prawa mechaniki kwantowej [20]. Wiele źródeł za początek informatyki kwantowej wskazuje wystąpienie Richarda Feynman’a z 1981 roku, w którym zaproponował on koncepcję używania komputerów kwantowych do symulowania zjawisk kwantowych [21]. Jego idea polegała na tym, że obliczenia kwantowe byłyby w stanie modelować i symulować zachowanie cząstek w mikroskali. Klasyczne komputery potrzebowałyby bardzo dużej ilości czasu, aby takie obliczenia wykonać. W 1992 roku David Deutsch przedstawił pierwszy algorytm kwantowy, który można było wykorzystać do rozwiązywania pewnych problemów obliczeniowych szybciej niż na komputerze klasycznym [22]. To otworzyło drogę do badań nad algorytmami kwantowymi, które mogłyby być wykorzystane w przyszłych komputerach kwantowych. W latach 90. XX wieku pojawiły się pierwsze eksperymenty nad fizyczną realizacją komputera kwantowego. Badacze zaczęli konstruować prototypy takich maszyn, wykorzystując efekty kwantowe do przetwarzania informacji. Dodatkowo, w 2001 roku przeprowadzono eksperyment, który po raz pierwszy wykorzystał efekt kwantowej teleportacji informacji. To wydarzenie potwierdziło praktyczne zastosowanie zasad mechaniki kwantowej w przesyłaniu informacji między oddalonymi punktami.

Aby lepiej zrozumieć potencjał komputerów kwantowych, warto prześledzić w jaki sposób dokonuje się obliczeń przy ich użyciu. W tradycyjnych komputerach klasycznych najmniejszą jednostką informacji jest bit (skrót od angielskiego binary digit), który może przyjmować jeden z dwóch stanów podstawowych (najczęściej oznaczamy te stany jako 0 i 1), co możemy porównać do dwóch punktów na osi. Natomiast w przypadku kwantowych odpowiedników bitów, tzw. kubitów (ang. quantum bit lub w skrócie qubit) , sytuacja jest bardziej złożona. Możemy sobie wyobrazić kubity jako punkty na sferze zwanej “sferą Blocha” (Rys. 1). Bieguny sfery reprezentują stany 0 i 1, podobnie jak na osi, ale pozostałe punkty na sferze odpowiadają stanom kwantowym realizującym tzw. zasadę superpozycji stanów. Niosą one informacje zarówno o stanie 0, jak i o stanie 1. Dzięki zasadzie superpozycji możemy wykorzystać takie stany do wykonywania przetwarzania w sposób równoległy wykonując operacje na wielu stanach jednocześnie. To właśnie ta unikalna cecha kubitów otwiera nowe perspektywy w dziedzinie obliczeń kwantowych.

Rys. 1: Sfera Blocha (źródło: https://pl.wikipedia.org/wiki/Sfera_Blocha, licencja: Creative Commons Attribution-Share Alike 3.0 Unported).

Superpozycja może być dla ludzi poznających mechanikę kwantową nieintuicyjna, gdyż nie jesteśmy w stanie zaobserwować jej wprost w otaczającym nas świecie. Dlaczego tak jest? Chociaż potrafimy stworzyć kubit w superpozycji stanów 0 i 1, to nie jesteśmy w stanie go takiego bezpośrednio zaobserwować — kubit zawsze będzie widoczny dla obserwatora jedynie w stanach bazowych (0 lub 1). Wykonując pomiar układu kwantowego, zgodnie z zasadą dekohernecji “łamiemy” superpozycję i w wyniku pomiaru otrzymujemy zawsze jeden z dwóch stanów bazowych. Prawdopodobieństwo otrzymania wartości 0 lub 1 w wyniku pomiaru zależy właśnie od stanu danego kubitu przed pomiarem. Z jednej strony, może być to pewnym utrudnieniem, gdyż wynik obliczeń kwantowych przeprowadzonych na kubitach może być niedeterministyczny. Z drugiej strony, to właśnie dzięki temu w komputerach kwantowych mamy możliwość eksplorowania wszystkich potencjalnych wartości jednocześnie zamiast kolejno sprawdzać każdą z nich, co jest charakterystyczne dla klasycznych komputerów bazujących na bitach.

Aby zmienić stan kubitu, używamy bramek kwantowych. W tradycyjnej informatyce, na bity wpływamy poprzez sterowanie przepływem prądu przez tranzystory i korzystanie z bramek logicznych, takich jak np. AND, OR czy NOT. W informatyce kwantowej bramki są reprezentowane matematycznie jako macierze unitarne, które pozwalają na modyfikowanie stanów kubitów reprezentowanych matematycznie jako wektory, nie zmieniając ich długości (przykładami są bramka Hadamarda czy bramka CNOT). Poprzez zastosowanie bramek kwantowych do kubitów w stanie superpozycji, jesteśmy w stanie uzyskać kubit w innej superpozycji. Kontrolując superpozycję, mamy wpływ na prawdopodobieństwo z jakim kubit będzie się znajdował w jednym z dwóch podstawowych stanów (0 lub 1) po dokonaniu na nim pomiaru [23].

W mechanice kwantowej poza już wspomnianą superpozycją istnieje jeszcze jedno zjawisko, które może zdawać się nieintuicyjne nawet dla zaawansowanych naukowców. Jest to splątanie kwantowe (ang. entanglement), czyli zjawisko, które Albert Einstein bezpośrednio wskazywał jako przyczynę “upiornego działania na odległość” [24]. Splątanie to specjalny stan, w którym dwa lub więcej obiektów kwantowych (na przykład cząstki, fotony, czy też kwantowe bity — kubity) stają się ze sobą ściśle powiązane w taki sposób, że nie można dokładnie opisać stanu jednego z nich, nie rozważając jednocześnie stanu drugiego. W praktyce oznacza to, że zmiany w stanie jednego z tych podukładów (jednej z cząstek) natychmiast wpływa na stan pozostałych powiązanych części, niezależnie od odległości między nimi. W kontekście informatyki kwantowej oznacza to, że wynik pomiaru jednego kubitu (z układu splątanych kubitów) może natychmiast wpłynąć na wynik pomiaru innych kubitów. To zjawisko jest wyjątkowe i nie ma analogii w klasycznej fizyce oraz tradycyjnych obliczeniach.

Choć komputery kwantowe stały się rzeczywistością dopiero po wielu latach, to już wcześniej naukowcy rozwijali algorytmy, które miały potencjał do działania na tych maszynach. Przykłady takich algorytmów to algorytm Deutscha [25] opracowany w 1985 roku, algorytm Bernsteina–Vazirani’ego [26] (1993) oraz algorytm Simona [27] (1994). Choć te algorytmy nie rozwiązywały praktycznych problemów, to udowodniły, że algorytmy działające na komputerach kwantowych mogą rozwiązywać pewne problemy szybciej niż ich klasyczne odpowiedniki. Jest to możliwe właśnie dzięki opisanym wcześniej zjawiskom superpozycji stanów i splątania kwantowego.

Przełomowym momentem w dziedzinie obliczeń kwantowych była praca Petera Shora [28], który w 1994 roku zaproponował algorytm kwantowy będący w stanie znaleźć rozkład dużych liczb na czynniki pierwsze relatywnie szybko, w czasie wielomianowym [29], a więc potencjalnie znacznie szybciej niż wszystkie (opublikowane do tej pory) algorytmy wykonywane na komputerach klasycznych. Choć nie opublikowano dotychczas dowodu, że komputer klasyczny nie jest w stanie zrobić tego równie szybko, powszechnie uważa się, że jest to możliwe. Tymczasem trudność obliczeniowa tego problemu leży u podstaw stosowanych w dzisiejszych systemach kryptograficznych metod szyfrowania, np. kryptosystemu RSA [30]. Pojawienie się potężnych komputerów kwantowych może więc spowodować, że stosowane obecnie metody szyfrowania będą musiały zostać zastąpione nowszymi rozwiązaniami. Z tego powodu trwają już w wielu krajach (również w Polsce) prace nad algorytmami kryptografii postkwantowej, które mogłyby być odporne na ataki przy pomocy komputerów kwantowych [31].

Budowa komputerów kwantowych

Współczesne klasyczne komputery, tablety i telefony pracują dzięki szybkiej miniaturyzacji i zastosowaniu tranzystorów i układów scalonych do realizacji klasycznych obliczeń, wykorzystują procesory o olbrzymiej mocy obliczeniowej. Zgodnie z prawem Moore’a potrafimy budować i “upychać” tranzystory, tworząc procesory zawierające miliardy podukładów, a gęstość “upakowania” tranzystorów podwaja się mniej więcej co 2 lata. Istnieją jednak zadania obliczeniowe, które nawet dla superkomputerów, dla których liczbę operacji wyraża się w petaflopach PFLOPS (czyli 10¹⁵ FLOPS), są zbyt skomplikowane i ich realizacja wymagałaby zbyt dużo czasu, gdyż czas ich rozwiązywania na komputerze klasycznym rośnie wykładniczo w stosunku do rozmiaru danych wejściowych danego problemu. Zadania te to na przykład problemy symulacji nowych materiałów, układów kwantowych, czy różnego rodzaju problemy optymalizacyjne. Dodatkowo, z uwagi na coraz mniejszy rozmiar tranzystorów, przewiduje się, że prawo Moore’a również może niebawem przestać obowiązywać (a już obecnie utrzymanie tempa postępu jest bardzo wymagające), m.in. z uwagi na efekty kwantowe występujące w małych skalach. Poszukiwano więc alternatywnych, szybszych metod przeprowadzania obliczeń, i były podstawy do przypuszczeń, że mechanika kwantowa może przynieść w tym zakresie przełom, a “równoległość” przetwarzania danych oferowana przez informatykę kwantową może przynieść przełom.

Uważa się, że pierwszy komputer kwantowy stworzyli w 1998 roku Isaac Chuang, Neil Gershenfeld oraz Mark Kubinec [32]. Posiadał on tylko 2 kubity i bardzo szybko ulegał dekoherencji (przejściu z zachowania kwantowego do klasycznego), co skutkowało utratą informacji przez komputer. Mimo, że nie był on w stanie wykonać bardzo skomplikowanych obliczeń, to jednak twórcy pokazali, że może on wykonać obliczenia bazujące na prawach mechaniki kwantowej. Opracowana przez nich metoda była zupełnie inna niż obecne metody budowy komputerów kwantowych. Zamiast próbować kontrolować tylko pojedyncze atomy, badacze postanowili wziąć dużą ich liczbę. Do swoich badań wykorzystali cząsteczkę organiczną “chloroform”, o wzorze sumarycznym CHCl3. Pod wpływem silnego pola magnetycznego, zwrot spinu atomów węgla oraz wodoru układa się zgodnie albo przeciwnie do zwrotu linii pola magnetycznego. Oba te stany można traktować jako 1 albo 0 w klasycznej teorii obliczeń. Aby zmienić zwrot spinu, wykorzystuje się impuls fali elektromagnetycznej o częstotliwości radiowej. Warto dodać, że wykorzystany do badań chloroform zawierał jedynie izotop węgla C-13, ponieważ tylko on wykazuje silne właściwości magnetyczne. Spin jest własnością wszystkich cząstek fizycznych i nie ma swojej analogii w świecie makroskopowym.

Dzisiejsze komputery kwantowe [33], choć wykorzystują podobne zjawiska, są zupełnie inaczej zbudowane. Najczęściej wykorzystywanymi technologiami tworzenia kubitów są uwięzione jony [34], nadprzewodnictwo [35] oraz polaryzacja fotonów [36]. Mimo różnic w sposobie tworzenia kubitów, wszystkie komputery kwantowe muszą mieć odpowiednie warunki środowiska zewnętrznego, takie jak niska temperatura, bliska absolutnego zera, oraz niezwykle niskie ciśnienie. Temperatura odpowiada za drgania cząsteczek, których chcemy uniknąć w układzie kubitów, a niskie ciśnienie, na mocy równania gazu doskonałego, zapewnia praktycznie brak innych cząsteczek, które mogłyby oddziaływać z kubitem i zmienić jego stan, wprowadzając błąd w obliczeniach. To dlatego zdjęcia komputerów kwantowych pokazują wiszące “do góry nogami” (Rys. 2) i posiadające niezliczoną ilość kabli urządzenia. Są one używane właśnie do chłodzenia i obniżania ciśnienia.

Rys. 2: Zdjęcie komputera kwantowego (źródło: https://www.flickr.com/photos/ibm_research_zurich/23518086798, licencja: Attribution-NoDerivs 2.0 Generic (CC BY-ND 2.0))

Przejdźmy do omówienia pierwszej technologii, czyli uwięzionych jonów. Polega ona na jonizacji atomu, czyli zabraniu z niego jednego elektronu, w wyniku czego powstaje dodatnio naładowany jon, który może oddziaływać z zewnętrznym polem elektromagnetycznym. Odpowiednia charakterystyka tego pola może sprawić, aby jon pozostawał w jednym miejscu w przestrzeni. Około 100 miniaturowych elektrod zapewnia, by jony, czyli kubity, znalazły się w jednej linii, co umożliwia wzajemne, kontrolowane oddziaływanie między nimi. Następnie za pomocą wiązek laserowych można można operować na kubitach oraz implementować bramki kwantowe w celu realizacji superpozycji oraz splątania. Technologię uwięzionych jonów wykorzystują firmy takie jak IonQ [37], AQT [38], Qxford Ionics [39] i Quantinuum [40].

Inną popularną technologią realizacji kubitów jest wykorzystanie materiałów nadprzewodzących. Zjawisko nadprzewodnictwa występuje w niektórych materiałach w temperaturach bliskich absolutnemu zeru i polega na zerowej stracie energii podczas przepływu prądu, dzięki czemu prąd w takim materiale może płynąć w nieskończoność. W komputerach kwantowych wykorzystuje się to zjawisko do utworzenia obwodów rezonansowych, składających się z kondensatora i węzła Josephsona, który wykorzystuje efekt tunelowania kwantowego. Tak zbudowany obwód stanowi jeden kubit. Aby móc na niego oddziaływać i zastosować bramki, do obwodu podłączony jest jeszcze jeden zewnętrzny kondensator, który reaguje na zewnętrzne sygnały oraz stanowi istotną rolę w procesie splątania kwantowego. Nadprzewodzące kubity wykorzystywane są przez gigantów technologicznych, między innymi w procesorach Google [41], IBM [42] czy Rigetti [43].

Realizacja kubitów jako fotony jest kolejnym podejściem do budowy komputerów kwantowych. Z technologii tej korzystają firmy takie jak Xanadu [44] i PsiQuantum [45]. Polega ona na wykorzystaniu fali elektromagnetycznej do prowadzenia obliczeń. Za stany kwantowe i ich superpozycję traktuje się odpowiednią polaryzację fotonu, a bramki logiczne są implementowane za pomocą luster, soczewek, polaryzatorów oraz rozdzielaczy wiązek.

Inną technologią, o której warto wspomnieć, jest kwantowe wyżarzanie [46]. Jest ona jednak wykorzystywana tylko w niektórych typach problemów obliczeniowych, a mianowicie problemach optymalizacji kombinatorycznej oraz próbkowaniu probabilistycznym [47]. Kluczowym elementem kwantowego wyżarzania jest minimalizacja energii, do której dąży układ kubitów. Najpierw rozwiązywany problem optymalizacyjny trzeba sformułować jako problem minimalizacji energii układu. Następnie po wczytaniu danych początkowych, zachodzi proces wyżarzania, a sekwencja zer i jedynek wygenerowana przez komputer stanowi rozwiązanie problemu. Również w tym przypadku wynik obliczeń może nie być deterministyczny. Warto podkreślić, że podczas procesu wyżarzania nie są stosowane żadne bramki, w przeciwieństwie do założeń uniwersalnego komputera kwantowego. Pionierem tej technologii jest firma D-Wave, która w swoim procesorze wykorzystuje nadprzewodzące kubity, których stany są modyfikowane za pomocą zmiany natężenia pola magnetycznego [48].

Warto również wspomnieć o tym, że rozwijane są też inne technologie do budowy komputerów kwantowych, m.in. metody topologiczne, metody półprzewodnikowe i krzemowe.

Zastosowania komputerów kwantowych

Obliczenia kwantowe mają ogromny potencjał w wielu dziedzinach. Tam, gdzie kluczem jest czas reakcji (np. dla graczy giełdowych), algorytmy kwantowe mogą zapewnić znaczną przewagę. Z kolei farmakologia i inżynieria materiałowa będą mogły wykorzystać tak pożądane przez Feynmana symulacje kwantowe przy tworzeniu nowych leków i materiałów. Algorytmy kwantowe mają również potencjał w obszarze optymalizacji, co pozwala na ich wykorzystanie np. w logistyce, finansach czy do projektowania sieci energetycznych. W 2017 roku naukowcy z firm D-Wave i Volkswagen opublikowali artykuł pokazujący w jaki sposób przy pomocy kwantowego wyżarzania można zoptymalizować układ tras dla floty taksówek [49].

Kwantowe obliczenia stanowią także fundament dla dziedziny zwanej “kwantowym uczeniem maszynowym” (ang. quantum machine learning, QML). Klasyczne metody uczenia maszynowego i głębokiego uczenia mają swoje ograniczenia w rozwiązywaniu skomplikowanych problemów, takich jak optymalizacja wielowymiarowych funkcji kosztu czy analiza dużych zbiorów danych. Dlatego też naukowcy eksplorują możliwości, jakie daje mechanika kwantowa, aby przyspieszyć i ulepszyć algorytmy uczenia maszynowego. Kwantowe uczenie maszynowe wykorzystuje kubity i zasady superpozycji do tworzenia bardziej efektywnych algorytmów, które mogą znaleźć zastosowanie w analizie danych, czy rozwiązywaniu problemów optymalizacyjnych, np. w procesie poszukiwania najlepszych hiperparametrów modeli. To fascynujące połączenie teorii kwantowej z przetwarzaniem danych stwarza ogromny potencjał dla rozwoju nowych technologii. Publikowane są również artykuły naukowe pokazujące zastosowanie algorytmów kwantowych do wzmacniania algorytmów uczenia maszynowego służących do detecji obiektów na zdjęciach satelitarnych.

Obliczenia kwantowe mogą również służyć do próbkowania z rozkładów prawdopodobieństwa, które są trudne do próbkowania przez komputery klasyczne (np. rozkład Boltzmanna [50]). Można również spotkać zastosowania komputerów kwantowych w sztuce, np. do generowania muzyki [51].

Obecnie istnieją komercyjne komputery kwantowe (a raczej procesory oparte o kubity) oraz laboratoria badawcze, które pracują nad coraz bardziej zaawansowanymi modelami tych maszyn. Firmy takie jak IBM, Google czy Rigetti oferują dostęp do komputerów kwantowych w chmurze, umożliwiając badaczom i programistom eksperymentowanie z obliczeniami kwantowymi. Obecnie śledzimy dynamiczny rozwój obliczeń kwantowych, który może przynieść przełomowe zmiany w dziedzinie informatyki i nauki, ale jednocześnie pozostaje wiele naukowych i technicznych wyzwań do pokonania. Warto zdawać sobie jednak sprawę z tego, że nadal istnieją wyzwania związane z kontrolą i stabilnością kubitów oraz z ochroną informacji kwantowej przed zakłóceniami. W rezultacie obliczenia realizowane na współczesnych komputerach kwantowych są często “zaszumione” i obarczone błędami. Z punktu widzenia fizycznego utrzymania stanów kubitu przez odpowiednio długi czas dużym utrudnieniem jest również wspomniane wcześniej zjawisko dekoherencji.

Inne technologie kwantowe

Jeszcze zanim powstały pierwsze komputery kwantowe, bo w 1984 roku, Charles Bennett i Gilles Brassard pokazali, że możliwa jest bezpieczna komunikacja przy użyciu technologii kwantowych [52]. Opracowana przez nich metoda zabezpieczania wiadomości opiera się na właściwości fotonów, jaką jest ich polaryzacja. Za pomocą pomiaru polaryzacji fotonów, rozmówcy są w stanie przekazać sobie nawzajem wiadomość oraz zweryfikować, czy ich wiadomość nie została przechwycona przez podsłuchiwacza. Stało się to podstawą kryptografii kwantowej. W praktyce metody te stosuje się do kwantowej dystrybucji kluczy (ang. quantum key distribution, QKD), służących do odszyfrowywania wiadomości, które mogą być już wysyłane klasycznie. Duży wkład w dziedzinę kryptografii kwantowej miał także polski fizyk Artur Ekert, obecnie profesor na Uniwersytecie Oksfordzkim, który bazując na twierdzeniu Bella zaproponował, aby wykorzystać zjawisko splątania kwantowego do protokołu bezpiecznej komunikacji [53]. Niedawno otrzymał za tę propozycję Nagrodę Milnera przyznawaną przez Royal Society w Wielkiej Brytanii [54]. Metody QKD testowane są już współcześnie, m.in. w ramach prac projektu NLPQT (Narodowe Laboratorium Fotoniki i Technologii Kwantowych) uruchomiono łącze transmisyjne QKD pomiędzy Poznaniem a Warszawą. System transmisyjny QKD korzysta z dedykowanych włókien sieci PIONIER o łącznej długości 380 km [55].

Technologie kwantowe mogą się również przydać do dokonywania pomiarów o wysokiej precyzji (jest to tzw. metrologia kwantowa [56]). Przykładem mogą być zegary atomowe, które korzystają z efektów kwantowych w oscylacjach atomowych, co pozwala na znacznie bardziej precyzyjne mierzenie czasu niż w przypadku tradycyjnych zegarów. Inne przykłady to interferometria kwantowa, która wykorzystuje zjawisko interferencji kwantowej (w którym dwa lub więcej stany kwantowe łączą się, a ich amplitudy dodają się lub odejmują, tworząc wynikowy stan kwantowy), aby dokładnie mierzyć długości, odległości i zmiany w pozycji z dużą precyzją, a także spektroskopia kwantowa, która pozwala na badanie poziomów energetycznych atomów i cząsteczek, co jest niezbędne w badaniach nad właściwościami substancji i identyfikacji jej składników.

Ekosystem technologii kwantowych w Polsce

Technologie kwantowe, choć są wciąż na stosunkowo wczesnym etapie rozwoju, mogą mieć znaczące zastosowania w gospodarce, i z pewnością warto zainteresować się tą tematyką i wspierać jej rozwój. Polska nauka odegrała i nadal odgrywa istotną rolę w rozwoju informatyki kwantowej, m.in. osiągnięcia polskich naukowców znalazły istotne miejsce u podstaw obliczeń kwantowych (np. twierdzenie o nieklonowaniu [57]), kwantowej kryptografii (np. protokół E91 [53]), czy kwantowej teorii informacji (np. równanie GKS-L [58]). W Polsce istnieje wiele grup realizujących prace badawcze w obszarze technologii kwantowych, istnieją też startupy i firmy realizujące prace badawcze lub rozwijające produkty w obszarze technologii kwantowych. Warto zwrócić również uwagę m.in. na Klaster Kwantowy [59], którego celem jest rozwijanie krajowego potencjału tkwiącego w technologiach kwantowych, a także na ambitne przedsięwzięcie odbywające się w Poznaniu, polegające na budowie jednego z pierwszych komputerów kwantowych w Unii Europejskiej, realizowane w ramach programu EuroHPC [60].

Jedną z organizacji wspierających rozwój ekosystemu informatyki kwantowej w Polsce jest QPoland [61], a jej członkami są autorzy niniejszego artykułu. W skład grupy wchodzą przedstawiciele wielu polskich uczelni i firm, jest ona częścią międzynarodowej inicjatywy QWorld [62], a formalnie jej działalność wspierana jest przez Fundację Quantum AI [63], której statutowym celem jest wspieranie edukacji, badań i współpracy w obszarze nauki i nowych technologii. Fundacja i członkowie QPoland organizują darmowe wykłady, meetupy, warsztaty, konferencje i konkursy związane z technologiami kwantowymi. Są to w większości działania edukacyjne, realizowane często we współpracy ze specjalistami z innych krajów. Dzięki temu osoby zainteresowane technologiami kwantowymi mają możliwość zdobycia cennej wiedzy, umiejętności i nawiązania kontaktów w tym obszarze.

Na temat ekosystemy technologii kwantowych w Polsce w ciągu kilku miesięcy opublikowany zostanie kolejny artykuł, ale już dziś warto rozważyć udział w najbliższych zdalnych, bezpłatnych warsztatach z tworzenia programów kwantowych [64] oraz trzeciej edycji zdalnego, międzynarodowego hackathonu dotyczącego tworzenia kwantowych gier — Quantum Games Hackathon [65] — organizowanego przez Fundację Quantum AI. Trzecia jego edycja odbędzie się w dniach 30.09–8.10, a w ramach tego konkursu uczestnicy z całego świata będą mieli okazję, współpracując zdalnie, stworzyć nowe gry komputerowe związane z technologiami kwantowymi. Hackathon będzie poprzedzony warsztatami, podczas których uczestnicy będą mogli nauczyć się pisać programy komputerowe, które będą mogły zostać uruchomione na rzeczywistych komputerach kwantowych, a także sprawdzić swoją wiedzę podczas testu i uzyskać certyfikat.

Autorzy: Paweł Gora, Sebastian Zając, Przemysław Michałowski, Krzysztof Kuba

Referencje

[1] M. Planck, “On the Theory of the Energy Distribution Law of the Normal Spectrum”. Verhandl. Dtsch. phys. Ges. 2, 237 (1900).

[2] A. Einstein, “Uber einen die Erzeugung und Verwandlung des Lichtes, Annalen der Physik 4, (1905).

[3] N. Bohr Dr. phil. I. On the construction of atoms and molecules. Philosophical Magazine Series 6, 2, (1913).

[4] L. de Broglie,Waves and quanta, Nature. 112 2815: 540 (1923).

[5] M. Born, W. Heisenberg, P. Jordan, Zur Quantenmechanik II, Zeitschrift fur Physik, 35, 557–615, (1925).

[6] E. Schrodinger, The Present Status of Quantum Mechanics, Die Naturwissenschaften, Volume 23, Issue 48, (1935).

[7] D. Griffits, D. Schroeter, Wstęp do Mechaniki Kwantowej, PWN, (2021).

[8] S. Weinberg, The Quantum Theory of Fields, Cambridge University Press; First Edition, (2005).

[9] B. Zwiebach, A First Course in String Theory, Cambridge University Press; (2004).

[10] M. Green, J. Schwarz, E. Witten, Superstring Theory. Cambridge
University Press, Cambridge, UK, (1987).

[11] C. Rovelli, Quantum Gravity, Cambridge University Press, UK, (2004).

[12] A. Einstein, B Podolsky, N Rosen, Can Quantum-Mechanical Description of Physical Reality be Considered Complete?, Physical Review. 47 (10) 777–780, (1935).

[13] J. Bell, On The Einstein Podolsky Rosen Paradox, Physics 1, 195–200,
(1964).

[14] A. Aspect, Proposed experiment to test the nonseparability of
quantum mechanics. PhysRevD vol 14 no 8.p 1944–1951, (1976).

[15] S. Kochen, E. P. Specker, “The problem of hidden variables in
quantum mechanics”
, Journal of Mathematics and Mechanics. 17 (1): 59–87,
(1967).

[16] W. Wootters, W. A. Żurek, “A single quantum cannot be cloned”, Nature 299, 802–803, (1982).

[17] A. Turing, “Computing Machinery and Intelligence”, Mind, LIX (236): 433–460, (1950).

[18] J. von Neumann, “First Draft of a Report on the EDVAC”, 1945.

[19] R. S. Ingarden, Quantum Information Theory, Reports on Mathematical Physics, vol. 10, 43–72, (1976).

[20] P. Benioff, “The Computer as a Physical System: A Microscopic Quantum Mechanical Hamiltonian Model of Computers as Represented by Turing Machines”, Journal of Statistical Physics, 22, 563, (1980).

[21]. R. Feynman, “Simulating Physics with Computers”, International Journal of Theoretical Physics, 21 (6–7): 467–488, (1982).

[22] D. Deutsch, R. Jozsa “Rapid solutions of problems by quantum computation”. Proceedings of the Royal Society of London A, 439 (1992).

[23] http://www.thomaswong.net, T. Wong, Introduction to Classical and Quantum Computing.

[24] https://magazine.caltech.edu/post/untangling-entanglement

[25] https://royalsocietypublishing.org/doi/10.1098/rspa.1992.0167

[26] https://epubs.siam.org/doi/10.1137/S0097539796300921

[27] https://epubs.siam.org/doi/10.1137/S0097539796298637

[28] https://epubs.siam.org/doi/abs/10.1137/S0036144598347011

[29] https://pl.khanacademy.org/computing/ap-computer-science-principles/algorithms-101/evaluating-algorithms/a/comparing-run-time-efficiency

[30] R. L. Rivest, A. Shamir, and L. Adleman, “A method of obtaining digital signatures and public-key cryptosystems”, Comm. Assoc. Comput. Mach., 21, pp. 120–126, (1978).

https://dl.acm.org/doi/pdf/10.1145/359340.359342

[31] https://csrc.nist.gov/Projects/post-quantum-cryptography/post-quantum-cryptography-standardization

[32] https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.80.3408

[33] https://en.wikipedia.org/wiki/List_of_quantum_processors

[34] https://pennylane.ai/qml/demos/tutorial_trapped_ions

[35] https://pennylane.ai/qml/demos/tutorial_sc_qubitshttps://pennylane.ai/qml/demos/tutorial_sc_qubits

[36] https://pennylane.ai/qml/demos/tutorial_photonics

[37] https://ionq.com/

[38] https://www.aqt.eu

[39] https://www.oxionics.com/

[40] https://www.quantinuum.com/

[41] https://quantumai.google/

[42] https://www.ibm.com/quantum

[43] https://www.rigetti.com/

[44] https://www.xanadu.ai/

[45] https://www.psiquantum.com/

[46] https://docs.dwavesys.com/docs/latest/c_gs_2.html

[47] https://www.nature.com/articles/s41534-017-0018-2

[48] https://www.dwavesys.com/

[49] https://www.frontiersin.org/articles/10.3389/fict.2017.00029/full

[50] https://en.wikipedia.org/wiki/Boltzmann_distribution

[51] https://arxiv.org/abs/2110.12408

[52] https://www.sciencedirect.com/science/article/pii/S0304397514004241?via%3Dihub

[53] A. Ekert, “Quantum cryptography based on Bell’s theorem“, Phys. Rev. Lett.67, 661, (1991) https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.67.661

[54] https://www.merton.ox.ac.uk/news/professor-artur-ekert-milner-award

[55] https://www.pcss.pl/nlpqt-uruchomiono-lacze-quantum-key-distribution-miedzy-poznaniem-i-warszawa

[56] https://arxiv.org/abs/1405.4878

[57] W.K. Wooters, W. H. Żurek “A single quantum cannot be cloned”, Nature, 299, 802–803 (1982) https://www.nature.com/articles/299802a0

[58] A. Kossakowski, “On quantum statistical mechanics of non-Hamiltonian systems”, Reports on Mathematical Physics, Volume 3, Issue 4, p. 247–274, (1972).

[59] https://klasterkwantowy.pl

[60] https://eurohpc-ju.europa.eu/one-step-closer-european-quantum-computing-eurohpc-ju-signs-hosting-agreements-six-quantum-computers-2023-06-27_en

[61] https://qworld.net/qpoland

[62] https://qworld.net

[63] https://www.qaif.org

[64] https://www.qaif.org/events/workshops/qbronze113-19-21-09-25-26-09-2023

[65] https://www.qaif.org/contests/quantum-games-hackathon

--

--