Niepewna historia kwantowych deklaracji
Dotychczasowe zapowiedzi dotyczące osiągnięcia przewagi kwantowej były wyjątkowo zróżnicowane. W 2019 roku Google ogłosiło, że ich procesor Sycamore wykonał obliczenia w niecałe cztery minuty, podczas gdy tradycyjnym superkomputerom zajęłoby to podobno 10 000 lat. Dwa lata później chińscy naukowcy zgłosili własne roszczenia. Problem w tym, że każde takie twierdzenie szybko kwestionowano. Eksperci wskazywali na nieudowodnione założenia i luki w rozumowaniu. Kulminacja nadeszła w zeszłym roku, gdy szanghajskie laboratorium AI wykonało zadanie Google’a w zaledwie 14 sekund przy użyciu konwencjonalnego superkomputera. To boleśnie unaoczniło, jak trudno udowodnić prawdziwą wyższość technologii kwantowej.
Czytaj też: Einstein się mylił? Czas płynie inaczej niż myśleliśmy. Najnowsze badania kwantowe zaskakują nawet naukowców
Zespół z Uniwersytetu Teksańskiego w Austin podszedł do problemu od innej strony. Zamiast koncentrować się na czasie obliczeń, badacze skupili się na zużyciu pamięci. Stworzyli zadanie, które ich 12-kubitowy komputer kwantowy rozwiązał przy użyciu minimalnych zasobów. Kluczowe okazało się porównanie z najbardziej wydajnym klasycznym algorytmem. Jak zauważają autorzy badania, tradycyjne podejście wymagałoby od 62 do 382 bitów pamięci do wykonania tego samego zadania.
Konstruujemy zadanie, dla którego najbardziej efektywny przestrzennie algorytm klasyczny wymaga udowodnionej ilości od 62 do 382 bitów pamięci, i rozwiązujemy je, używając tylko 12 kubitów. Ta forma przewagi kwantowej – którą nazywamy supremacją informacji kwantowej – reprezentuje nowy punkt odniesienia w obliczeniach kwantowych, który nie opiera się na nieudowodnionych przypuszczeniach – wyjaśniają autorzy badania
Dlaczego tym razem to działa?
Rzecz w tym, że wcześniejsze demonstracje opierały się na założeniu, iż nikt nie wymyśli lepszego klasycznego algorytmu. Teksańczycy poszli o krok dalej: matematycznie udowodnili, że taki algorytm nie istnieje.
W przeciwieństwie do wcześniejszych demonstracji przewagi kwantowej, które opierały się na nieudowodnionych założeniach złożoności, nasz wynik jest udowodniony i trwały: żaden przyszły rozwój algorytmów klasycznych nie jest w stanie zniwelować tej luki – zauważają sami zainteresowani
To zasadnicza różnica. Podczas gdy poprzednie roszczenia można było obalić poprzez ulepszenie oprogramowania dla klasycznych komputerów, teza teksańskiego zespołu pozostaje niepodważalna niezależnie od przyszłych postępów w programowaniu. Nawet jeśli przełom z Austin rozwiązuje fundamentalny spór, droga do praktycznych pozostanie daleka. Równolegle do tych badań trwają prace nad zwiększeniem skali komputerów kwantowych. Zespół z Harvardu zademonstrował ostatnio system z 3000 kubitów z zaawansowanymi mechanizmami korekcji błędów.
Prawdziwym wyzwaniem pozostaje stworzenie maszyn tolerujących błędy, które mogłyby znaleźć zastosowanie w kryptografii, projektowaniu leków czy symulacjach chemicznych. Bezwarunkowa supremacja informacji kwantowej to ważny kamień milowy, ale wciąż tylko jeden z wielu potrzebnych do faktycznej rewolucji. Teksańskie osiągnięcie zamyka pewien rozdział debat teoretycznych, otwierając jednocześnie nowe możliwości badawcze. Dla przeciętnego użytkownika komputerów zmiana nie będzie odczuwalna przez lata, lecz dla świata nauki oznacza przejście od spekulacji do matematycznej pewności.