Komputery kwantowe to wciąż odległa przyszłość - ale coraz bardziej konieczna

Jeszcze dziesięć lat temu była to niemalże czysta fantastyka naukowa. Obecnie komputery kwantowe stanowią przedmiot zaciekłego wyścigu technologicznego. Stawka jest olbrzymia, możliwości są niemal nieograniczone, ale przeszkody liczne i niezwykle trudne do pokonania.

Posłuchaj
00:00

Komputery kwantowe nie są aż tak nowe, jak mogłoby się wydawać. Początki tej koncepcji sięgają 1981 roku i wizjonerskiej idei Richarda Feynmana. Zauważył on, że klasyczne komputery mają ograniczoną zdolność do symulowania zjawisk kwantowych, dlatego zaproponował stworzenie maszyny działającej zgodnie z prawami rządzącymi światem na najgłębszym, fundamentalnym poziomie. Podstawą działania komputerów kwantowych są kubity, które dzięki zasadzie superpozycji mogą znajdować się w dwóch stanach jednocześnie. Ta cecha sprawia, że urządzenia te oferują wykładniczo większą moc obliczeniową w porównaniu do tradycyjnych komputerów, umożliwiając rozwiązywanie zadań, które wcześniej uznawano za niewykonalne.

Zasada działania jest na pierwszy rzut oka trudna do pojęcia. Tradycyjny bit w komputerach może przyjmować wartość 1 lub 0. Kubit może przyjąć równocześnie 1 i 0. Choć technologia ta wciąż znajduje się na stosunkowo wczesnym etapie rozwoju, to dzięki wykorzystaniu zasad mechaniki kwantowej przy rozwiązywaniu złożonych problemów wzbudza ogromne zainteresowanie. Powstał więc termin kwantowej przewagi. I o nią toczy się technologiczna walka.

Kwantowa przewaga

Kwantowa przewaga to moment, w którym komputer kwantowy jest w stanie rozwiązać zadanie całkowicie nieosiągalne dla znanych nam maszyn. Nawet najszybszych i największych superkomputerów. Osiągnięcie takiego poziomu uznawane jest za jeden z głównych celów badań nad tą technologią, a w ostatnich latach wiele firm i instytucji ogłaszało, że udało im się tego dokonać. Uczciwie należy dodać jednak, że w bardzo kontrolowanych warunkach i jedynie w problemach teoretycznych, bez przełożenia na rzeczywistość i bez konkretnej wartości.

Jednym z najbardziej znanych przykładów jest procesor Sycamore opracowany przez Google. W 2019 roku zaprezentowano jego możliwości podczas eksperymentu z losowym próbkowaniem obwodów. W ramach testu zastosowano przypadkowe bramki kwantowe do tworzenia i pomiaru stanów kwantowych, a firma ogłosiła, że tego typu zadanie jest niewykonalne dla klasycznych systemów obliczeniowych. Faktycznie tak było, niemniej użyteczność tego rozwiązania była zerowa i czysto akademicka. Niemniej Google stało się kwantowym liderem. Ale na chwilę.

Dzięki swojej serii komputerów kwantowych Zuchongzhi, Chiny wyrosły na poważnego rywala w wyścigu kwantowym, podważając twierdzenia Google o całkowitej dominacji tego pola. Najnowsza wersja, Zuchongzhi 3.0, dysponuje 105 kubitami i charakteryzuje się wyjątkową dokładnością i wiarygodnością obliczeniową. Wykorzystując 83-kubitowy, 32-cyklowy obwód losowy, Zuchongzhi 3.0 również przeprowadził eksperyment próbkowania losowych obwodów, generując milion próbek w ciągu kilku sekund.

Wśród największych graczy nie może zabraknąć też IBM, który od dawna rozwija technikę tzw. cięcia obwodów, czyli rozbijania dużych układów na mniejsze fragmenty. Te podobwody mogą być wykonywane niezależnie na różnych jednostkach kwantowych, a następnie ich wyniki łączy się za pomocą obliczeń klasycznych. Rozwiązanie to pozwala działać poza naturalnymi ograniczeniami pojedynczych kwantowych jednostek obliczeniowych. Firma zademonstrowała tę metodę, łącząc dwa procesory Eagle po 127 kubitów każdy i uzyskując stany kwantowe obejmujące nawet 142 kubity.

Komputery kwantowe - niestety jesteśmy dekady od użyteczności

Pytanie, które ciśnie się jednak na usta brzmi „co dalej?”. Wizje przyszłości są niezmiernie intrygujące, ale ciężko nie mieć wrażenia, że mowa o przyszłości co najmniej odległej. Jensen Huang, prezes Nvidii, podkreśla, że według niego praktyczne zastosowania tej technologii wciąż są marzeniami. Huang szacuje, że naprawdę użyteczne komputery kwantowe pojawią się dopiero za 15–20 lat. Podobnie ostrożne podejście prezentuje wielu ekspertów, zwracając uwagę, że zanim komputery kwantowe osiągną pełnię możliwości, niezbędne są dalsze badania i rozwój.

Rozwój technologii kwantowej nie jest jednak dyscypliną indywidualną, którą naprzód posunie jedna sprawna firma. Złożoność zagadnień związanych z obliczeniami kwantowymi sprawia, że żadna firma ani nawet kraj nie zdoła samodzielnie doprowadzić projektu do perfekcji. Podobnie jak w przypadku lotu na Księżyc czy sekwencjonowania ludzkiego genomu, również tutaj sukces zależy nie tylko od pracy naukowców, lecz także od wieloletniego zaangażowania sektora publicznego i prywatnego. Potrzebne będą wspólne inwestycje, wymiana wiedzy i dalekosiężna dyplomacja naukowa, które umożliwią stworzenie globalnego ekosystemu kwantowego. A samo to wydaje się równie wielkim, jeśli nie nawet większym wyzwaniem od konstrukcji i projektowania maszyn.

Tym razem motywacja jest jednak większa. Rosnące potrzeby obliczeniowe AI pokazują, że świat już teraz zbliża się do granic możliwości klasycznych komputerów. Już teraz firmy takie jak OpenAI, Meta czy Google pracują nad olbrzymimi centrami danych zasilanymi własnymi elektrowniami. Dalszy rozwój w pewnym momencie przestanie być możliwy i dojdziemy do maksymalnej skali tradycyjnej komputeryzacji.

Powiązane treści
Technologie kwantowe – kto jest liderem?
Dania chce mieć najpotężniejszy na świecie komputer kwantowy
Rekordowa transakcja w branży komputerów kwantowych
Półprzewodniki do zastosowań ekstremalnych – badania nad emiterami 615–640 nm
Komputery kwantowe - o co w tym chodzi?
IQM zainstaluje pierwszy w Polsce komputer kwantowy
Pierwsza implementacja algorytmu kryptografii postkwantowej (PQC) w kontrolerze bezpieczeństwa
Półprzewodnikowy potentat zbuduje mobilny komputer kwantowy
Pierwsza instalacja europejskiego komputera kwantowego EuroQCS-Poland
Zobacz więcej w kategorii: Gospodarka
PCB
Biodegradowalne płytki PCB: szansa dla elektroniki o krótkim cyklu życia
Produkcja elektroniki
Ukazał się nowy katalog produktowy Grupy Renex
Mikrokontrolery i IoT
Texas Instruments kupuje Silicon Labs za 7,5 mld USD i wzmacnia segment bezprzewodowej łączności IoT
Komponenty
Positron pozyskuje 230 mln USD na ASIC do inferencji AI. Startup stawia na architekturę „memory-first”
Komponenty
Infineon przejmuje od ams OSRAM działalność w zakresie sensorów
Komunikacja
Nowe przemysłowe switche rack firmy Antaira do wymagających zastosowań
Zobacz więcej z tagiem: Projektowanie i badania
Konferencja
DesignCon 2026 - konferencja dla projektantów urządzeń elektronicznych
Gospodarka
Elastyczny chip AI cieńszy niż ludzki włos. FLEXI może zmienić rynek elektroniki wearables
Gospodarka
Mitsubishi Electric i MHI inwestują w następcę modułu ISS. Nowa era komercjalizacji orbity LEO

Projektowanie układów chłodzenia w elektronice - metody obliczeniowe i symulacyjne

Rosnące straty mocy w nowoczesnych układach elektronicznych sprawiają, że zarządzanie temperaturą przestaje być jedynie zagadnieniem pomocniczym, a staje się jednym z kluczowych elementów procesu projektowego. Od poprawnego odprowadzania ciepła zależy nie tylko spełnienie dopuszczalnych warunków pracy komponentów, lecz także długoterminowa niezawodność urządzenia, jego trwałość oraz zgodność z obowiązującymi normami. W niniejszym artykule przedstawiono uporządkowane podejście do projektowania układów chłodzenia, obejmujące metody obliczania strat mocy, analizę termiczną oraz wykorzystanie narzędzi symulacyjnych, w tym modeli cieplnych implementowanych w środowiskach symulacji elektrycznych.
Zapytania ofertowe
Unikalny branżowy system komunikacji B2B Znajdź produkty i usługi, których potrzebujesz Katalog ponad 7000 firm i 60 tys. produktów