Autor: Grażyna Śleszyńska

Analizuje zjawiska makroekonomiczne i polityczne. Współtworzyła Forum Ekonomiczne w Krynicy

Supremacja kwantowa to pieśń przyszłości

Obliczeniami kwantowymi zaczęto zajmować się w latach 80. XX wieku. Widoczne przyspieszenie nastąpiło jednak dopiero niedawno, wraz z presją związaną z generowaniem i przetwarzaniem gigantycznych wolumenów informacji cyfrowych.
Supremacja kwantowa to pieśń przyszłości

(©PAP)

Obliczenia kwantowe będą miały przełomowe konsekwencje dla rynków finansowych, medycyny i farmacji, badania przestrzeni kosmicznej, projektowania polimerów, sztucznej inteligencji i wielu innych dyscyplin. Zarówno przedstawiciele świata nauki, jak i biznesu wiążą z tą dziedziną ogromne nadzieje. To tłumaczy, dlaczego zaangażowały się w nią światowe giganty: od koncernów informatycznych, przez producentów sprzętu elektronicznego, po przemysł zbrojeniowy, o rywalizacji mocarstw nie wspominając. Symulacje i modelowanie matematyczne za pomocą algorytmów kwantowych to – obok mobilnej transmisji danych 5. generacji, popularnie zwanej 5G oraz technologii magazynowania energii – kluczowy element wyścigu technologicznego, który zaczyna przypominać zimnowojenny wyścig zbrojeń.

Fizyka kwantowa w finansach

Mistyka mechaniki kwantowej

Klasyczną, newtonowską mechanikę cechuje determinizm. Przyrodą rządzą bowiem związki przyczynowo-skutkowe. Oddziaływanie, jakiemu poddamy dany układ, determinuje to, co się z nim stanie. Natomiast mechanika kwantowa jest probabilistyczna i tylko probabilistyczna. Obiekt kwantowy (atomy, elektrony i fotony) porusza się jak fala, tj. rozprzestrzenia się we wszystkich kierunkach jednocześnie. Nie przyjmuje wartości punktowej, lecz rozlewa się na obszar, obejmujący mnogość punktów, w których mikrocząstka w danej chwili istnieje. Fizycy mówią, że znajduje się w superpozycji. Z tego stanu mikrocząstkę wytrąca kwant otoczenia w postaci obserwatora. Mówiąc naukowo, następuje dekoherencja środowiskowa: w momencie gdy czynnik zewnętrzny zaburza układ kwantowy, fala ulega załamaniu (kolapsowi). Stan kwantowy czysty (superpozycja) przechodzi w stan kwantowy mieszany, który generuje klasyczne, zero-jedynkowe zachowania. Znika rozmyta plama, a mikrocząstki przyjmują określoną wartość. O tym, czy będzie to wartość 0 czy 1, decyduje przypadek. Dla danego stanu kwantowego opisującego położenie cząstki w przestrzeni można podać funkcję rozkładu prawdopodobieństwa, opisującą szansę spotkania obiektu kwantowego w danym obszarze przestrzeni. Losowość mechaniki kwantowej pozostaje tajemnicą, otoczoną nimbem mistycyzmu.

Żywy kot, martwy kot

W zrozumieniu (na tyle, na ile jest ono poznawczo możliwe) irracjonalnej logiki teorii kwantów pomaga legendarny, pochodzący z lat 30. XX wieku, eksperyment myślowy ojca mechaniki kwantowej, Erwina Schrödingera, z hipotetycznym kotem. Wyobraźmy sobie, że w szczelnie zamkniętym kontenerze znajduje się żywy kot, atom pierwiastka radioaktywnego oraz detektor promieniowania sprzężony z wyzwalaczem substancji trującej. Jeśli atom ulegnie rozpadowi radioaktywnemu, wówczas detektor uruchomi dopływ trucizny, która zabije kota. Jeśli zaś nie dojdzie do emisji promieniowania, kot przeżyje. Jeszcze zanim otworzymy kontener, żeby sprawdzić, czy zwierzę oddycha, los kota jest przypieczętowany i możemy stwierdzić, że albo żyje, albo nie żyje. Tak podpowiada rozum, doświadczenie empiryczne, a przede wszystkim fizyka klasyczna, na gruncie której układ jest zawsze określony zero-jedynkowo. Natomiast w świecie kwantów nie ma alternatywy albo-albo; jest koniunkcja: kot jest i żywy, i martwy jednocześnie. Współistnienie obu przeciwstawnych stanów, czyli superpozycję, przerywa akt pomiaru, mocą którego kot losowo wchodzi w stan życia albo śmierci.

Kot bynajmniej nie jest kwantowych rozmiarów, lecz gdyby był, to tak właśnie by się działo. Subtelnych zjawisk kwantowych nie obserwujemy w dużej skali. Nie ma też koncepcji kompleksowo wyjaśniającej, jak teoria kwantów przekłada się na rzeczywistość namacalną. Najprawdopodobniej w skali makroskopowej obiekty kwantowe stale dekoherują, tzn. przeskakują z superpozycji do stanów przyjmujących określone wartości, co nie pozwala obserwować efektów kwantowych.

Superpozycja to pierwsza, tyleż dystynktywna, co enigmatyczna, cecha mechaniki kwantowej. Drugą jest korelacja kwantowa zwana splątaniem. Niezależnie od pozostawania w superpozycji cząstki elementarne mogą być bowiem splątane ze sobą, tworząc jeden układ kwantowy. Gdy kwanty są w stanie splątania, to bez względu na to, jak bardzo są oddalone od siebie, ingerencja w jeden z nich niesie natychmiastowy skutek dla drugiego i na odwrót. Albert Einstein nazwał to zjawisko „upiornym oddziaływaniem na odległość”.

Zero-jedynkowe bity i superponowane kubity

Tym dwóm właściwościom mechaniki kwantowej: superpozycji i splątaniu zawdzięczamy obliczenia kwantowe. Ale jak właściwie działa komputer kwantowy? Zacznijmy od tego, że klasyczny komputer dokonuje obliczeń według kodu dwójkowego, w którym liczbom i literom odpowiadają określone sekwencje dwóch cyfr: 0 i 1. Notabene dlatego mówi się o bitach (ang. binary digits). Binarny system zapisu informacji jest efektywny, ponieważ pozwala podstawić cyfry pod dwa możliwe stany napięcia: przy jedynce prąd płynie, przy zerze nie płynie. Tranzystory, a z nimi bramki logiczne, odpowiednio się przełączają.

Komputer kwantowy wykonuje obliczenia w bitach kwantowych, czyli kubitach. Różnica w stosunku do bitów, i zarazem clue sprawy, polega na tym, że kubity nie przyjmują określonej wartości: 0 lub 1, lecz cały zakres wartości między 0 a 1. Kubit, w przeciwieństwie do klasycznego bitu, może być zatem dowolną superpozycją stanów bazowych. Samo zjawisko superpozycji nie wystarczyłoby jednak do skonstruowania komputera kwantowego. Tu kluczowe jest splątywanie kwantowe kubitów, gdyż z każdym nowym kubitem moc obliczeniowa komputera wzrasta wykładniczo.

Dzięki splątaniu kubitów komputer kwantowy może wykonywać obliczenia na wielu wartościach jednocześnie. Ocenia się, że system kwantowy z ponad 50 kubitami jest w stanie rozwiązywać problemy matematyczne, będące poza zasięgiem klasycznych superkomputerów. Losowość mechaniki kwantowej sprawia, że jednostkowy pomiar jest niepewny, dlatego stosuje się algorytmy probabilistyczne, które wykonują serię obliczeń i uśredniają wynik, zgodnie z rachunkiem prawdopodobieństwa.

Kluczem do sukcesu jest patent na utrwalenie stanów kwantowych. Kto go posiądzie, będzie rządził światem.

Więc gdzie tkwi problem? Otóż nanocząsteczki są ekstremalnie wrażliwe na wpływ otoczenia. Wahania temperatury, hałasu, ciśnienia czy pola magnetycznego powodują dekoherencję, czyli wybicie kubitów ze stanu współzależnych superpozycji. Jest to zasadnicza trudność, która spędza sen z powiek konstruktorom komputerów kwantowych. Dekoherencja zrywa superpozycję, a z nią splątanie (obiekt kwantowy z superpozycji wytraca też akt pomiaru, ale to dzieje się w sposób kontrolowany i celowy). Im więcej kubitów splączemy, tym częściej dochodzi do błędów i utraty informacji kwantowych. Mimo chłodzenia do temperatury bliskiej zera bezwzględnego i izolowania w próżni, systemy kwantowe w superpozycji można utrzymać tylko przez ułamki sekundy. Dopóki nie uda się zapanować nad zjawiskiem dekoherencji, dopóty nie będzie komputera kwantowego z prawdziwego zdarzenia. Kluczem do sukcesu jest patent na utrwalenie stanów kwantowych. Kto go posiądzie, będzie rządził światem.

Technologie kwantowe

Ogólnie rzecz biorąc, komputery kwantowe konstruuje się w oparciu o trzy technologie: obwody nadprzewodzące, pułapki jonowe i polaryzacja fotonów. Nadprzewodzący komputer kwantowy wykorzystuje przepływ (tzw. tunelowanie) sparowanych elektronów, zwanych „parami Coopera”, przez bezoporowy obwód (tzw. złącze Josephsona). W ten sposób generuje się superpozycję i splątanie, niezbędne do uzyskania efektów kwantowych. Tę technologię wykorzystują wielcy gracze z branży, w tym IBM, Google i D-Wave.

Inni, m.in. Honeywell i IonQ, stosują metodę uwięzionych jonów, która wykorzystuje zjonizowane atomy do przenoszenia informacji kwantowych. Jony są umieszczane w specjalnych chipach pełniących funkcję pułapek jonowych i utrzymywane w stanie koherencji (splątania i superpozycji) dzięki elektrodom generującym pole elektromagnetyczne. Kubit nadprzewodnikowy IBM-a zachowuje spójność przez około kilkaset mikrosekund. Tymczasem okres koherencji kubitu uwięzionego jonu w systemie marki IonQ wynosi zazwyczaj kilka sekund, a naukowcy w niedawnym eksperymencie wydłużyli ten czas do minut.

Trzecią „walutą kwantową” są fotony, czyli kwanty promieniowania elektromagnetycznego lub po prostu cząstki światła. Mają one tę zaletę, że są względnie wolne od szumów, co chroni kodowane przez nie kubity przed dekoherencją, a ponadto są wydajne energetycznie. Fotoniczny komputer kwantowy przekazuje informacje za pośrednictwem wiązki światła, a nie impulsu elektrycznego. Laserowe impulsy świetlne kodują położenie i poszczególne stany polaryzacji fotonów. Na kubitach fotonicznych pracują naukowcy z Chińskiego Uniwersytetu Nauki i Technologii w Hefei (USTC). Na nich też architekturę kwantową opiera PsiQuantum. Ten przebojowy startup z Doliny Krzemowej, którego współzałożycielem i głównym architektem jest Terry Rudolph, profesor fizyki kwantowej w Imperial College London i wnuk samego Erwina Schrödingera, rzucił wyzwanie weteranom branży. Zapowiada, że w perspektywie kilku lat zbuduje fotoniczny komputer kwantowy co się zowie – z milionem (sic!) kubitów.

Mit supremacji kwantowej

W 2019 r. Google zelektryzował świat, ogłaszając, że posiadł supremację kwantową, czyli zdolność do rozwiązywania problemów przerastających najmocniejsze klasyczne komputery. Na dowód tego podał, że jego 53-kubitowy komputer „Sycamore” potrafi w ciągu 200 sekund wykonać obliczenia, które klasycznym maszynom z krzemowych półprzewodników zajęłyby 10 tysięcy lat. Konkurencyjny IBM natychmiast odparował, że „Summit”, ówcześnie najszybszy klasyczny komputer świata (nieprzypadkowo konstrukcji IBM), potrafiłby policzyć to samo w ciągu dwóch i pół dnia, więc przechwałki Google’a można między bajki włożyć. To starcie gigantów pokazuje, jak zacięta jest rywalizacja w branży i jak daleko w chwytach marketingowych posuwają się jej przedstawiciele, byleby zaistnieć w opinii publicznej jako lider kwantowego peletonu. W chwytach marketingowych – bo sensacyjne doniesienia nie zawsze idą w parze z dokumentacją badawczą, co skrupulatnie punktują niezależni naukowcy.

Przede wszystkim jednak jest problem metodologiczny. Tradycyjnie wydajność komputerów kwantowych kojarzy się z liczbą kubitów. Argumentując, że liczba kubitów nie jest miarodajnym wskaźnikiem wydajności systemów, IBM zaproponował inną, szerszą miarę mocy kwantowej: objętość kwantową (QV). Uwzględnia ona nie tylko liczbę kubitów, ale także m.in. połączenia między nimi, dokładność bramki (podobnie jak w klasycznym komputerze, służy do przetwarzania informacji), zakłócenia sygnału, wydajność kompilatora (pozwala podejrzeć, ile kubitów zajmuje dany fragment kodu). Objętości kwantowej jako referencyjnego parametru używa także Honeywell Quantum Solutions. Żeby jeszcze skomplikować sprawę, firma IonQ stosuje z kolei kubity algorytmiczne, które są pochodną IBM-owej objętości kwantowej, definiowaną jako logarytm binarny tejże (log2 QV).

Czy możliwa jest całkowita automatyzacja produkcji – i jakie byłyby jej skutki?

Dane poszczególnych producentów na temat wydajności ich systemów kwantowych są drastycznie rozbieżne i prowadzą do sprzecznych wniosków. Wspomniany wyżej „Sycamore” marki Google zawiera 53 kubity, natomiast „IBM Q System One” (oba z 2019 r.), reklamowany jako pierwszy komercyjny komputer kwantowy, ma 27 kubitów i wydajność kwantową (patent IBM-a) na poziomie 64. Z kolei D-Wave w 2020 r. wprowadził komputer „Advantage” o deklarowanej wydajności przekraczającej 5 tys. kubitów. Producent zapewnia, że system umożliwia rozwiązywanie problemów z nawet milionem zmiennych. Wreszcie Honeywell Quantum Solutions w czerwcu 2020 r. ogłosił, że Model H1 osiągnął objętość kwantową 64, we wrześniu już 128, a w marcu 2021 r. aż 512. Dla porównania IonQ, wykorzystujący tę samą technologię uwięzionych jonów, pochwalił się niesamowitą maszyną, która przy zaledwie 32 kubitach, 22 kubitach algorytmicznych (patent IonQ) osiąga objętość kwantową na poziomie 4 mln. W grudniu 2020 r. USTC – Chiński Uniwersytet Nauki i Technologii Hefei, podobnie jak Google rok wcześniej, jednostronnie obwołał się zdobywcą supremacji kwantowej. Chińczycy utrzymują, że bazujący na fotonach komputer kwantowy „Jiuzhang” jest 100 kwintylionów razy szybszy niż „IBM Summit”, drugi najpotężniejszy superkomputer świata (rzekomo w ciągu 200 sekund wykonał obliczenia, które niekwantowemu „IBM Summit” zajęłyby 2,5 miliarda lat) i 10 miliardów razy szybszy niż kwantowy „Sycamore” Google’a.

Niejasne perspektywy

Komputer kwantowy par excellence to wciąż pieśń przyszłości. Istniejące prototypy należą głównie do prywatnych firm technologicznych (choć nie brakuje też laboratoriów uniwersyteckich, jak QuTech na Politechnice w Delfcie w Holandii), które tworzą ambitne „mapy drogowe” (na przykład IMB obiecuje dostarczyć na rynek maszynę o wydajności 1 mln kubitów w perspektywie 2030 r.). Udostępniają ponadto swoje moce obliczeniowe na zewnątrz, w celach szkoleniowych i testowych. IBM, D-Wave, Rigetti oferują usługi w swoich chmurach, a inni, np. IonQ i Honeywell, korzystają z rozwiązań chmurowych Microsoftu i Amazona. Tylko Google na razie nie komercjalizuje dostępu do swoich systemów kwantowych, zastrzegając jednak, że jest otwarty na eksperymentalne propozycje naukowców.

Ponieważ dostęp do obliczeń kwantowych jest ograniczony, w miarę możliwości wykorzystuje się symulatory, pracujące na klasycznych komputerach wielkich mocy. Ilość pamięci niezbędnej do zasymulowania obwodu kwantowego rośnie wykładniczo wraz z liczbą splątanych kubitów. Ze względu na to ograniczenie do niedawna przyjmowano, że klasyczny komputer może zasymulować nie więcej niż 49 kubitów. Najbliżsi osiągnięcia tego pułapu byli naukowcy ze szwajcarskiego Federalnego Instytutu Technologii (ETH) w Zurychu, którym udało się zasymulować działanie 45 kubitów przy użyciu 500 terabajtów pamięci. W 2017 r. IBM dokonał jednak tak efektywnej kompresji 56 kubitów, że symulacja pochłonęła tylko 4,5 terabajta pamięci. To wróży przyszłość hybrydom obliczeń o wysokiej wydajności (HPC) i obliczeń kwantowych.

(©PAP)

Otwarta licencja


Tagi


Artykuły powiązane

Od krajalnic do mięsa do sztucznej inteligencji – historia firmy IBM

Kategoria: Innowacje w biznesie
Nawet w przypadku firmy technologicznej najważniejszy jest agresywny menedżer nastawiony na sprzedaż – przekonuje James Cortada w książce „IBM: The Rise and Fall and Reinvention of a Global Icon”.
Od krajalnic do mięsa do sztucznej inteligencji – historia firmy IBM

Cenne dane klientów banków

Kategoria: Analizy
Wejście dużych firm technologicznych do świata finansów ułatwia im dostęp do nowej, ogromnej wartości – danych bankowych klientów. Stanowi to sygnał ostrzegawczy dla organów regulacyjnych w zakresie koncentracji coraz bardziej osobistych danych w kilku dużych platformach.
Cenne dane klientów banków

Sztuczna inteligencja nie gra w kości. Na razie gra w piłkę

Kategoria: Analizy
Bóg nie gra w kości – pisał Albert Einstein rozważając niedeterministyczny model świata, jaki wynikał z odkrywanych wówczas zasad mechaniki kwantowej. Współcześnie sztuczna inteligencja dobrze radzi sobie w środowiskach o ustalonych regułach – jak szachy – ale gorzej, gdy wkracza przypadkowość.
Sztuczna inteligencja nie gra w kości. Na razie gra w piłkę