Samsung rozpoczyna masową produkcję nowego chipu HBM4

Samsung rozpoczął masową produkcję pamięci HBM4 dla sztucznej inteligencji, która ma stać się ważnym komponentem wśród nowych centrów danych AI.
.Samsung ogłosił start masowej produkcji swoich najnowszych układów HBM4, określając je jako „wiodące w branży” i potwierdzając, że pierwsze komercyjne partie trafiły już do klientów. Firma podkreśla, że jest to pierwsze takie wdrożenie na rynku, co ma dać jej wczesną przewagę w segmencie pamięci wysokoprzepustowej dla AI. HBM4 to szósta generacja pamięci HBM, zaprojektowana specjalnie pod obciążenia związane ze sztuczną inteligencją. Dzięki szerszej magistrali (2 048 linii I/O) i wyższym szybkościom transferu jest w stanie dostarczyć nawet dwukrotnie większą przepustowość niż HBM3E przy podobnych częstotliwościach. Zgodnie z danymi Samsunga, nowe układy przekraczają obowiązujące w branży standardy szybkości przetwarzania o ponad 40%, co ma odpowiadać rosnącym wymaganiom modeli generatywnej AI i serwerów akceleratorowych.
HBM4 jest bezpośrednio powiązana z boomem na akceleratory AI Nvidii. Rynek oczekuje, że to właśnie Nvidia będzie jednym z głównych odbiorców nowych kości Samsunga. SK Hynix, dotychczasowy lider w HBM3/HBM3E, według analiz ma utrzymać dominujący udział w dostawach HBM4 do platformy Rubin Nvidii, który oscyluje w okolicach 70% wolumenu, natomiast Samsung zabezpieczył około 20–30% pierwszych zamówień. To istotna zmiana, ponieważ przy HBM3E Samsung pozostawał wyraźnie w tyle za SK Hynix, co było szeroko komentowane przez analityków rynku półprzewodników. Teraz, dzięki wcześniejszemu przygotowaniu linii produkcyjnych i przejściu testów kwalifikacyjnych Nvidii, Samsung pozycjonuje się jako pretendent do odzyskania znaczącej części rynku pamięci AI.
.Informacja o starcie masowej produkcji HBM4 natychmiast przełożyła się na rynek. Kurs akcji Samsung Electronics wzrósł o ponad 6% w trakcie sesji na giełdzie w Seulu. Firma już wcześniej raportowała rekordowe kwartalne zyski napędzane popytem na pamięci do AI i zapowiedziała wielomiliardowe inwestycje w rozbudowę fabryk oraz przejście na bardziej zaawansowane procesy produkcyjne. Według prognoz TrendForce, przyspieszenie budowy centrów danych AI sprawi, że przychody całej branży pamięci półprzewodnikowych mogą sięgnąć ponad 840 mld dolarów w 2027 roku, a HBM4 i HBM4E będzie jednym z głównych motorów tego wzrostu.
Dla konsumentów może to mieć również uboczny skutek. Producenci ostrzegają, że skupienie się fabryk na lukratywnych zamówieniach do AI może podnieść ceny pamięci w laptopach, smartfonach i kartach graficznych dla zwykłych użytkowników, co widać już w pamięciach DDR5, które wzrosły w cenie od kilkudziesięciu do kilkuset procent w zależności od modelu.
Rząd Korei Południowej deklaruje ambicję wejścia do ścisłej globalnej czołówki obok USA i Chin, a pamięci HBM są jednym z filarów tej strategii. Samsung i SK Hynix kontrolują ok. 90% światowej produkcji HBM, co czyni z pamięci strategiczny „surowiec” dla infrastruktury AI, porównywany przez analityków do ropy naftowej epoki cyfrowej. Samsung inwestuje równolegle w rozwój jeszcze szybszych wariantów, takich jak HBM4E, które według szacunków mogą zapewnić nawet 2,5‑krotny wzrost przepustowości względem HBM3E, przy lepszej efektywności energetycznej na bit. W połączeniu z planowanym uruchomieniem procesów 2 nm oraz rosnącym popytem ze strony Nvidii, Google i innych graczy AI, koreański koncern umacnia swoją pozycję jednego z kluczowych beneficjentów globalnej „gorączki AI”.
Oprac: SŚ





