Kapitalizacja rynkowa firmy NVIDIA przekroczyła 1 bilion dolarów
| Gospodarka AktualnościBoom na sztuczną inteligencję właściwie dopiero się zaczyna, a jednym z pierwszych zwycięzców jest Nvidia, która we wtorek 30 maja po raz pierwszy odnotowała, że jej kapitalizacja rynkowa przekroczyła 1 bilion dolarów. Dla projektanta chipów, który nie ma własnych możliwości wytwarzania, jest to znaczący moment.
Oscylując wokół 970 mld dolarów na dzień 1 czerwca, chwilowy wzrost kursu akcji sprawił, że Nvidia dołączyła do elitarnego klubu zajmowanego obecnie tylko przez pięć innych firm: Apple, Microsoft, Alphabet, Amazon i Saudi Aramco. Wcześniej tylko trzy inne firmy - Tesla, Meta i PetroChina - również przekroczyły próg 1 bln dolarów rynkowej wartości.
Ceny akcji firmy Nvidia wzrosły od początku roku o około 170%, co oznacza wzrost wyższy niż innych firm z indeksu S&P 500. Wzrost ten jest bezpośrednio skorelowany z coraz większym wykorzystaniem narzędzi sztucznej inteligencji oraz potencjalnym wpływem zarówno na biznes, jak i na konsumentów.
O ChatGPT dyskutowano w salach konferencyjnych i przy dystrybutorach wody od czasu jego premiery w listopadzie 2022 r. W styczniu 2023 r., zaledwie trzy miesiące po opublikowaniu, ChatGPT zarejestrował 100 mln użytkowników. Chatbot – zbudowany na dużym modelu składającym się ze 175 mld parametrów – został wyszkolony przy użyciu około 10 tys. procesorów graficznych NVIDIA A100.
Nvidia odpowiada obecnie za około 80% wszystkich procesorów graficznych na świecie, przy czym wykorzystywanie tych procesorów zostało napędzone przez sztuczną inteligencję i eksplorację danych - korzyści płynące z przetwarzania równoległego procesorów graficznych sprawiają, że są one równie przydatne do szkolenia algorytmów sztucznej inteligencji, jak i do wydobywania kryptowalut. Firma badawcza IDTechEx opublikowała niedawno raport, który przewiduje dalszą dominację Nvidii nie tylko na scenie GPU, ale także dokładniej jako lidera sprzętu AI. Nvidia przejmie znaczny procent prognozowanych na 2033 rok przychodów z chipów AI o wartości 257 mld dolarów.
Obecnie Nvidia generuje większe przychody ze swojego segmentu rynku centrów danych i sieci (który obejmuje również rozwiązania dla pojazdów autonomicznych i procesory do wydobywania kryptowalut) niż z segmentów graficznych. W roku budżetowym 2023 Nvidia wygenerowała 15,01 mld dolarów przychodów z centrów danych, co stanowiło 55,6% całkowitych przychodów wygenerowanych w tym roku. Oznacza to wzrost przychodów z centrów danych o 41% od 2022 r., gdzie firma wykazała roczny wzrost przychodów z centrów o ponad 40% od 2020 r. Porównując to z innymi projektantami chipów AI – takimi jak AMD (który niedawno przejął Xilinx) i Qualcomm – jasne jest, że Nvidia wcześnie ustanawia dominację w przestrzeni sztucznej inteligencji centrów danych.
Firma nie spoczywa też na laurach. A100 jest obecnie w centrach danych najczęściej używanym chipem do celów sztucznej inteligencji, ale Nvidia przedstawiła na początku tego roku procesor graficzny H100, oparty na nowej architekturze Hopper. Architektura Hopper jest realizowana w procesie 4N firmy TSMC (ulepszona wersja procesu 5 nm). Obejmuje 80 mld tranzystorów - A100 ma 54,2 mld tranzystorów wykonanych w procesie 7 nm. Dzięki przyspieszeniu od 7 do 30 razy w zakresie uczenia i wnioskowania w porównaniu z układem A100, Nvidia będzie dostarczać kluczowy sprzęt niezbędny do uruchamiania coraz bardziej złożonych algorytmów sztucznej inteligencji jutra.
Jednak w czasie, gdy Nvidia przejmuje coraz więcej rynku przetwarzania danych w centrach, nadal istnieje duża szansa dla projektantów układów do obliczeń brzegowych. Według najnowszego raportu IDTechEx na temat chipów AI, w ciągu najbliższych dziesięciu lat segment ten będzie rosnąć w większym tempie niż w przypadku sztucznej inteligencji w chmurze.
Sztuczna inteligencja dla edge computingu ma inne wymagania niż dla chmury - wśród nich przede wszystkim dotyczące zużycia energii przez chipy ze względu na możliwości termiczne urządzeń, w których są osadzone. Ponieważ chipy typu edge zwykle zużywają nie więcej niż kilka watów, złożoność obsługiwanych przez nie modeli musi zostać znacznie uproszczona. Chip, taki jak A100, z jego dużą powierzchnią i gęstością tranzystorów, byłby marnotrawstwem. Zatem firmy nie muszą realizować projektów w najnowocześniejszych procesach i mogą zdecydować się na produkcję w technologiach bardziej dojrzałych, które mają niższą cenę (a tym samym barierę wejścia) niż obecnie wiodące.
źródło: Electronic Specifier