SK hynix pompuje miliardy w chipy HBM

| Gospodarka Aktualności

Pamięci o wysokiej przepustowości HBM (High Bandwidth Memory) stają się kluczową technologią w ciągłym wyścigu dotyczącym sztucznej inteligencji. SK hynix planuje wydać miliardy na produkcję takich chipów, a chiński Huawei chce opracować własny, we współpracy z lokalną firmą foundry.

SK hynix pompuje miliardy w chipy HBM

SK hynix - drugi co do wielkości producent chipów pamięci na świecie - ogłosił pod koniec czerwca, że zamierza do 2028 roku zainwestować 103 bln wonów (74,5 mld dolarów) w rozwój swojego działu półprzewodników. Zgodnie z planem inwestycyjnym, 80% tej sumy (82 bln wonów lub około 60 mld dolarów) ma być skierowane na obszary biznesowe związane ze sztuczną inteligencją, takie jak HBM, w celu zwiększenia mocy produkcyjnych, by odpowiedzieć na rosnący popyt.

Jak donosił jakiś czas temu The Register, w wyniku popytu napędzanego boomem AI firma SK hynix sprzedała już wszystkie chipy HBM, które wyprodukuje w tym roku, a także większość produkcji realizowanej w roku 2025. Chipy HBM są zoptymalizowane do użytku z najwyższej klasy akceleratorami GPU Nvidii, a koreańska firma była wczesnym graczem na rynku HBM.

Układy HBM zostały opracowane jako sposób na zwiększenie przepustowości pamięci w kluczowych aplikacjach, poprzez umieszczenie ich w tej samej obudowie co układy CPU lub GPU, czasami kładąc je bezpośrednio na nich, dzięki czemu połączenia są znacznie krótsze.

Pojawiły się ostrzeżenia, że entuzjazm branży dla HBM może spowodować niedobór dostaw pamięci DRAM, chyba że uda się uruchomić więcej linii produkcyjnych, ponieważ oczekuje się, że popyt na tę pamięć wzrośnie o 200% w tym roku i ponownie podwoi się w roku 2025.

Pamięciowy gigant Samsung również spodziewa się zarobić na boomie na pamięć dla AI, ale mówi się, że nadal czeka, aż jego chipy w technologii HBM będą certyfikowane do pracy z akceleratorami GPU Nvidii. Firma została niedawno zmuszona do zaprzeczenia plotkom, że jej układy nie spełniają wymagań Nvidii dotyczących zużycia energii i emisji ciepła.

Micron - trzeci co do wielkości producent pamięci - poinformował w ostatnim raporcie finansowym, że również jego moce produkcyjne w zakresie HBM zostały wyprzedane do 2025 roku. Firma z Boise w stanie Idaho twierdzi, że jest dobrze przygotowana do osiągnięcia znacznych przychodów w roku fiskalnym 2025, dzięki sztucznej inteligencji napędzającej popyt na układy pamięci. Jednak Micron ujawnił również, że nowe zakłady produkcyjne, które buduje w USA aby zwiększyć dostawy pamięci, nie zostaną szybko uruchomione - w przypadku obiektu w Boise trzeba będzie poczekać do roku finansowego 2027, a zakład w Nowym Jorku nie rozpocznie dostaw przed rokiem finansowym 2028.

Tymczasem pojawiły się doniesienia, że chiński gigant technologiczny Huawei chce zabezpieczyć własne chipy HBM we współpracy z Wuhan Xinxin Semiconductor Manufacturing, aby obejść amerykańskie sankcje, które zamknęły mu dostęp do wielu komponentów wyprodukowanych poza Chinami. Według South China Morning Post, w inicjatywę tę zaangażowanych jest kilka innych chińskich firm, takich jak firmy opakowaniowe Jiangsu Changjiang Electronics i Tongfu Microelectronics, o których mówi się, że dostarczają odpowiednik techniki Chip on Wafer on Substrate (CoWoS) używanej do łączenia procesorów graficznych Nvidii z chipami HBM.

Wcześniej informowano, że firma o nazwie ChangXin Memory Technologies (CXMT) miała stać się pierwszym chińskim rodzimym producentem modułów HBM.

źródło: The Register

Zobacz również