Amazon wprowadza chip Traninium3 w technologii 3nm

Trainium3 pozwala wprowadzić Amazona do bezpośredniej rywalizacji z najnowszymi modelami chipów AI swoich konkurentów.
.Rynek chipów do sztucznej inteligencji jest dziś najbardziej rozgrzanym segmentem technologii, a Nvidia kontroluje w nim od 80 do 90 procent sprzedaży układów wykorzystywanych do trenowania modeli AI, takich jak ChatGPT. Amazon Web Services zdecydował, że czas to zmienić. Firma wprowadzana Trainium3, który rzuca realne wyzwanie liderowi rynku. Nowy chip ma zapewniać ponad czterokrotnie wyższą wydajność niż poprzednik, przy jednoczesnym zmniejszeniu zużycia energii aż o 40 procent. AWS zapewnia, że Trainium3 oferuje najlepszy stosunek ceny do wydajności wśród układów do trenowania i inferencji modeli AI, co może mieć ogromne znaczenie dla firm ograniczanych rosnącymi kosztami wartości obliczeniowej.
Układy Trainium przeszły szybki i udokumentowany rozwój, który znacząco zmienił pozycję AWS na rynku akceleratorów AI. Trainium1, używany w instancjach EC2 Trn1, pozwalał obniżyć koszty treningu modeli nawet o 50% względem porównywalnych instancji GPU, co potwierdza AWS i wczesne wdrożenia m.in. Ricoh czy Arcee AI. Druga generacja, Trainium2, zwiększyła wydajność 4-krotnie względem poprzednika i zapewniła 30–40% lepszy price-performance niż instancje oparte na GPU Nvidia (P5e/P5en). Układy te były podstawą serwerów Trn2 UltraServers, wyposażonych w maksymalnie 64 chipy połączone magistralą NeuronLink. Najnowszy Trainium3, wykonany w technologii 3 nm, oferuje 2.52 PFLOPS FP8, do 144 GB HBM3e i nawet 4.4× wyższą wydajność od Trn2 UltraServers. AWS potwierdza również, że Trainium3 zapewnia ponad 4× lepszą efektywność energetyczną i jest obecnie najszybszym akceleratorem w usłudze Amazon Bedrock.
.Jednym z najpoważniejszych problemów związanych z rozwojem generatywnej AI jest ogromne zużycie energii. Wiele firm technologicznych musiało ograniczać swoje cele klimatyczne, aby nadążyć za rosnącym zapotrzebowaniem na moc obliczeniową. AWS wskazuje, że ich najnowszy układ zużywa znacznie mniej energii niż porównywalne rozwiązania konkurencji, co jest coraz ważniejsze dla firm, które trenują modele o bilionach parametrów. Technologie AWS są już testowane przez Anthropic, twórców Claude’a, co potwierdza, że rynek poważnie traktuje konkurentów Nvidii. Jednocześnie Amazon zapowiedział prace nad Trainium4, który ma zapewniać trzykrotnie wyższą wydajność niż nowy chip i wspierać infrastrukturę Nvidii, co oznacza możliwość łączenia obu technologii w jednym środowisku.
Rozwój mocy obliczeniowej dla sztucznej inteligencji przyspiesza w tempie wykładniczym, wykraczając daleko poza pojedyncze firmy. Nvidia od kilku lat podwaja wydajność swoich układów GPU z każdą generacją, a nowa architektura Blackwell deklaruje skok wydajności nawet 10-krotny w zadaniach AI względem poprzednich modeli. Google rozwija linię układów TPU, gdzie wartości TOPS i przepustowość pamięci rosną niemal dwukrotnie z generacji na generację, umożliwiając trenowanie modeli liczących setki miliardów parametrów. Meta inwestuje w własne akceleratory MTIA, przygotowane do obsługi rosnącej liczby zapytań generowanych przez ich systemy LLM. Wykładniczy trend jest widoczny także w infrastrukturze, największe klastry AI podwajają rozmiar i moc co 12–18 miesięcy. Wszystko to pokazuje, że globalny ekosystem AI znajduje się w fazie niespotykanego dotąd przyspieszenia technologicznego.
.Najwięksi gracze na rynku Google, Amazon i Microsoft coraz mocniej inwestują w rozwój własnych układów, by uniezależnić się od kosztownych GPU. Zaskakująco, Nvidia publicznie zareagowała na rosnącą konkurencję, stwierdzając, że „z zadowoleniem przyjmuje rywalizację”, jednocześnie podkreślając, że „wciąż jest o generację przed branżą”. To jednak już nie jest rynek jednokierunkowy. Pojawienie się Trainium3, rozwój chipów Google TPU oraz rosnące inwestycje Mety pokazują, że nadchodzą lata intensywnej walki o dominację nad infrastrukturą dla sztucznej inteligencji. Amazon AI chip może nie zdetronizuje Nvidii w najbliższym czasie, ale stanowi jeden z najpoważniejszych kroków w kierunku realnej dywersyfikacji i zmiany układu sił na rynku akceleratorów AI.
Oprac: SŚ








