Czy komputery kwantowe w końcu będą stabilniejsze i tańsze?

Dzięki klasycznym komputerom IBM zwiększył moc obliczeniową maszyn kwantowych

I to dwukrotnie, wyciskając z każdego kubitu 2x tyle, niż wcześniej. Nowa technika nazywa się oficjalnie entanglement forging.

Jeśli chodzi o polskie tłumaczenie, to jeszcze go nie mamy. Moim zdaniem najlepiej pasowałoby spajanie stanów splątanych, ale pewnie większość mediów przetłumaczy to jako wykuwanie splątań, czy coś w ten deseń. Podrabianie stanu splątanego też byłoby niezłą propozycją. Nieważne. Z badań przeprowadzonych przez IBM wynika, że nowa technika pozwala zmniejszyć aż o połowę liczbę kubitów potrzebnych do symulacji. W tym przypadku chodzi o symulacje cząsteczki wody.

Symulacje chemiczne i fizyczne to dość powszechne obecnie zastosowanie maszyn kwantowych, dzięki którym badacze są w stanie symulować zachowanie przeróżnych cząsteczek w celu testowania np. nowych konstrukcji akumulatorów, czy projektowania nowych leków. Niestety, pomimo niegasnących zachwytów na temat komputerów kwantowych, jest to nadal dość świeża technologia, której wydajność pozostawia wiele do życzenia. Mówiąc w skrócie: mała liczba kubitów i ich podatność na błędy to ogromne ograniczenie, jeśli chodzi o praktyczne zastosowania kwantowej architektury.

Nowa metoda symulacji opracowana przez IBM to dobry pomysł i tymczasowe rozwiązanie w jednym

Entanglement forging łączy w sobie obliczenia kwantowe i klasyczne, zasadniczo podwajając możliwości komputera kwantowego. Takie hybrydowe podejście jest obecnie powszechne w obliczeniach kwantowych — na przykład algorytmy znane jako wariacyjne kwantowe eigensolvery łączą obliczenia kwantowe i klasyczne w celu znalezienia optymalnych rozwiązań, takich jak np. symulacja stanu podstawowego cząsteczki.

„Główną ideą jest rozwiązanie większych problemów na danym sprzęcie kwantowym poprzez przejęcie części obliczeń kwantowych w obliczenia klasyczne” – mówi główny autor badania Andrew Eddins, naukowiec z IBM Quantum w San Jose w Kalifornii.

Nowa technika dzieli układ kwantowy na dwie połowy, na których wykonywane są niezależne obliczenia. Rolą układu klasycznego jest obliczenie splątania pomiędzy obiema kwantowymi połowami i połączenie modeli obliczeniowych wykonanych na każdej z nich. Największą obecnie wadą tego rozwiązania jest to, że najlepiej sprawdza się w przypadku kwantowych części z jak najmniejszą liczbą powiązań (splątań).

Czytaj również: Polacy stworzyli pamięć kwantową o pojemności 665 kubitów

Kolejnym ograniczeniem kucia splątania jest czas. „Komputery kwantowe są naturalnie wydajne w symulowaniu stanów splątanych, a tutaj rezygnujemy z części tej wydajności, aby przenieść część tego zadania na klasyczne obliczenia” – mówi Eddins. „W rezultacie każdy obwód uruchomiony w komputerze kwantowym jest mniejszy, ale jest o wiele więcej obwodów do uruchomienia, więc całe obliczenia trwają dłużej. Na szczęście, gdy dwie połówki symulowanego systemu są tylko słabo splątane, ten koszt czasu może być relatywnie mały.”

Naukowcy starają się teraz zbadać, jak skalowalna jest nowa metoda w przypadku większych układów kwantowych.