Komputery kwantowe to wciąż odległa przyszłość - ale coraz bardziej konieczna

Jeszcze dziesięć lat temu była to niemalże czysta fantastyka naukowa. Obecnie komputery kwantowe stanowią przedmiot zaciekłego wyścigu technologicznego. Stawka jest olbrzymia, możliwości są niemal nieograniczone, ale przeszkody liczne i niezwykle trudne do pokonania.

Posłuchaj
00:00

Komputery kwantowe nie są aż tak nowe, jak mogłoby się wydawać. Początki tej koncepcji sięgają 1981 roku i wizjonerskiej idei Richarda Feynmana. Zauważył on, że klasyczne komputery mają ograniczoną zdolność do symulowania zjawisk kwantowych, dlatego zaproponował stworzenie maszyny działającej zgodnie z prawami rządzącymi światem na najgłębszym, fundamentalnym poziomie. Podstawą działania komputerów kwantowych są kubity, które dzięki zasadzie superpozycji mogą znajdować się w dwóch stanach jednocześnie. Ta cecha sprawia, że urządzenia te oferują wykładniczo większą moc obliczeniową w porównaniu do tradycyjnych komputerów, umożliwiając rozwiązywanie zadań, które wcześniej uznawano za niewykonalne.

Zasada działania jest na pierwszy rzut oka trudna do pojęcia. Tradycyjny bit w komputerach może przyjmować wartość 1 lub 0. Kubit może przyjąć równocześnie 1 i 0. Choć technologia ta wciąż znajduje się na stosunkowo wczesnym etapie rozwoju, to dzięki wykorzystaniu zasad mechaniki kwantowej przy rozwiązywaniu złożonych problemów wzbudza ogromne zainteresowanie. Powstał więc termin kwantowej przewagi. I o nią toczy się technologiczna walka.

Kwantowa przewaga

Kwantowa przewaga to moment, w którym komputer kwantowy jest w stanie rozwiązać zadanie całkowicie nieosiągalne dla znanych nam maszyn. Nawet najszybszych i największych superkomputerów. Osiągnięcie takiego poziomu uznawane jest za jeden z głównych celów badań nad tą technologią, a w ostatnich latach wiele firm i instytucji ogłaszało, że udało im się tego dokonać. Uczciwie należy dodać jednak, że w bardzo kontrolowanych warunkach i jedynie w problemach teoretycznych, bez przełożenia na rzeczywistość i bez konkretnej wartości.

Jednym z najbardziej znanych przykładów jest procesor Sycamore opracowany przez Google. W 2019 roku zaprezentowano jego możliwości podczas eksperymentu z losowym próbkowaniem obwodów. W ramach testu zastosowano przypadkowe bramki kwantowe do tworzenia i pomiaru stanów kwantowych, a firma ogłosiła, że tego typu zadanie jest niewykonalne dla klasycznych systemów obliczeniowych. Faktycznie tak było, niemniej użyteczność tego rozwiązania była zerowa i czysto akademicka. Niemniej Google stało się kwantowym liderem. Ale na chwilę.

Dzięki swojej serii komputerów kwantowych Zuchongzhi, Chiny wyrosły na poważnego rywala w wyścigu kwantowym, podważając twierdzenia Google o całkowitej dominacji tego pola. Najnowsza wersja, Zuchongzhi 3.0, dysponuje 105 kubitami i charakteryzuje się wyjątkową dokładnością i wiarygodnością obliczeniową. Wykorzystując 83-kubitowy, 32-cyklowy obwód losowy, Zuchongzhi 3.0 również przeprowadził eksperyment próbkowania losowych obwodów, generując milion próbek w ciągu kilku sekund.

Wśród największych graczy nie może zabraknąć też IBM, który od dawna rozwija technikę tzw. cięcia obwodów, czyli rozbijania dużych układów na mniejsze fragmenty. Te podobwody mogą być wykonywane niezależnie na różnych jednostkach kwantowych, a następnie ich wyniki łączy się za pomocą obliczeń klasycznych. Rozwiązanie to pozwala działać poza naturalnymi ograniczeniami pojedynczych kwantowych jednostek obliczeniowych. Firma zademonstrowała tę metodę, łącząc dwa procesory Eagle po 127 kubitów każdy i uzyskując stany kwantowe obejmujące nawet 142 kubity.

Komputery kwantowe - niestety jesteśmy dekady od użyteczności

Pytanie, które ciśnie się jednak na usta brzmi „co dalej?”. Wizje przyszłości są niezmiernie intrygujące, ale ciężko nie mieć wrażenia, że mowa o przyszłości co najmniej odległej. Jensen Huang, prezes Nvidii, podkreśla, że według niego praktyczne zastosowania tej technologii wciąż są marzeniami. Huang szacuje, że naprawdę użyteczne komputery kwantowe pojawią się dopiero za 15–20 lat. Podobnie ostrożne podejście prezentuje wielu ekspertów, zwracając uwagę, że zanim komputery kwantowe osiągną pełnię możliwości, niezbędne są dalsze badania i rozwój.

Rozwój technologii kwantowej nie jest jednak dyscypliną indywidualną, którą naprzód posunie jedna sprawna firma. Złożoność zagadnień związanych z obliczeniami kwantowymi sprawia, że żadna firma ani nawet kraj nie zdoła samodzielnie doprowadzić projektu do perfekcji. Podobnie jak w przypadku lotu na Księżyc czy sekwencjonowania ludzkiego genomu, również tutaj sukces zależy nie tylko od pracy naukowców, lecz także od wieloletniego zaangażowania sektora publicznego i prywatnego. Potrzebne będą wspólne inwestycje, wymiana wiedzy i dalekosiężna dyplomacja naukowa, które umożliwią stworzenie globalnego ekosystemu kwantowego. A samo to wydaje się równie wielkim, jeśli nie nawet większym wyzwaniem od konstrukcji i projektowania maszyn.

Tym razem motywacja jest jednak większa. Rosnące potrzeby obliczeniowe AI pokazują, że świat już teraz zbliża się do granic możliwości klasycznych komputerów. Już teraz firmy takie jak OpenAI, Meta czy Google pracują nad olbrzymimi centrami danych zasilanymi własnymi elektrowniami. Dalszy rozwój w pewnym momencie przestanie być możliwy i dojdziemy do maksymalnej skali tradycyjnej komputeryzacji.

Powiązane treści
Dania chce mieć najpotężniejszy na świecie komputer kwantowy
Rekordowa transakcja w branży komputerów kwantowych
Komputery kwantowe - o co w tym chodzi?
IQM zainstaluje pierwszy w Polsce komputer kwantowy
Pierwsza implementacja algorytmu kryptografii postkwantowej (PQC) w kontrolerze bezpieczeństwa
Półprzewodnikowy potentat zbuduje mobilny komputer kwantowy
Pierwsza instalacja europejskiego komputera kwantowego EuroQCS-Poland
Zobacz więcej w kategorii: Gospodarka
Projektowanie i badania
Nowy zasób online dla płytek i zestawów ewaluacyjnych do systemów wbudowanych oraz narzędzi
Produkcja elektroniki
Zintegrowane rozwiązania SMT Panasonica
Komponenty
80% przychodów z sektora B2B - rozwój dzięki konsekwentnemu ukierunkowaniu na klienta
Optoelektronika
AI z prędkością światła staje się faktem - fotonika otwiera drogę do sprzętu nowej generacji
Produkcja elektroniki
Coraz większy udział materiałów polimerowych w zaawansowanym pakowaniu chipów
Komponenty
Rynek pamięci NAND pod presją: rosnące ceny i wydłużone terminy dostaw
Zobacz więcej z tagiem: Projektowanie i badania
Gospodarka
Nowy zasób online dla płytek i zestawów ewaluacyjnych do systemów wbudowanych oraz narzędzi
Gospodarka
Mouser Electronics bada przyszłość zaawansowanej mobilności powietrznej
Seminarium
Bez przegrzewania i bez zakłóceń - bezpłatne seminarium dla elektroników

Najczęstsze błędy przy projektowaniu elektroniki i jak ich uniknąć

W elektronice „tanio” bardzo często znaczy „drogo” – szczególnie wtedy, gdy oszczędza się na staranności projektu. Brak precyzyjnych wymagań, komponent wycofany z produkcji czy źle poprowadzona masa mogą sprawić, że cały produkt utknie na etapie montażu SMT/THT albo testów funkcjonalnych. Konsekwencje są zawsze te same: opóźnienia i dodatkowe koszty. Dlatego warto znać najczęstsze błędy, które pojawiają się w projektach elektroniki – i wiedzieć, jak im zapobiegać.
Zapytania ofertowe
Unikalny branżowy system komunikacji B2B Znajdź produkty i usługi, których potrzebujesz Katalog ponad 7000 firm i 60 tys. produktów