Sztuczna inteligencjaPółprzewodniki i chipy

Meta i AWS łączą siły – Graviton5 w centrum agentowego AI

Czy w wyścigu o AI to GPU grają pierwsze skrzypce? Meta właśnie przypomniała branży, że bez dobrych CPU orkiestra nie zagra.

Meta dogadała się z AWS na wdrożenie „dziesiątek milionów” rdzeni Graviton – na start. Chodzi o najnowsze Graviton5, które AWS będzie hostował we własnej infrastrukturze. To jeden z największych kontraktów na to autorskie, armowe CPU Amazona i jasny sygnał: agentowe AI potrzebuje dziś przede wszystkim ogromnej puli sprawnych, efektywnych rdzeni ogólnego przeznaczenia.

Dlaczego to ważne? Bo zmienia się profil mocy obliczeniowej. Trening wielkich modeli dalej żywi się GPU, ale „agentowe” systemy – te, które rozumują, planują i wykonują wieloetapowe zadania – są zaskakująco CPU-chłonne. Kto ma rdzenie, ten ma kontrolę nad przepływem zadań, pamięcią, siecią i całym „ruchem ulicznym” między akceleratorami. Meta woli tę kontrolę zabezpieczyć teraz, zamiast czekać na cud na rynku dostaw.

Ilustracja przedstawiająca współpracę Meta i AWS w kontekście AI.
Grafika koncepcyjna (AI)

O co chodzi

Meta oficjalnie mówi o „dywersyfikacji” infrastruktury: żadna pojedyncza architektura nie obsłuży wszystkich obciążeń efektywnie. W praktyce oznacza to dołożenie do własnych centrów danych i akceleratorów MTIA także dużej, hostowanej puli CPU od AWS. Pierwsza transza to dziesiątki milionów rdzeni z opcją dalszej rozbudowy – tak, by sprostać skalowaniu Meta AI i agentowych doświadczeń dla miliardów użytkowników.

Ilustracja przedstawiająca futurystyczne centrum danych z serwerami w neonowych kolorach.
Grafika koncepcyjna (AI)

Dlaczego akurat Graviton? Bo Graviton5 to świeża generacja na Arm Neoverse V3: do 192 rdzeni na chip, dużo większe cache i wsparcie dla szybszej pamięci (DDR5 do 8800 MT/s). AWS podaje, że sama komunikacja między rdzeniami przyspieszyła dzięki większym pamięciom podręcznym (opóźnienia spadły nawet o jedną trzecią), a całość jest zakotwiczona w Nitro – warstwie sprzętowo-programowej, która daje wydajność, izolację i „bare metal” tam, gdzie trzeba. W praktyce: mniejsze koszty na operację, więcej przepustowości, łatwiejsze rozpraszanie agentowych zadań w setkach instancji. Tu pomaga także EFA, niskolatencyjny interconnect AWS. [2]

Kontekst: CPU wraca na scenę

Agentowe AI zmienia topologię data center. GPU uczą i akcelerują wnioskowanie, ale to CPU jest „control plane”: orkiestruje przepływy, pamięć, harmonogramy i stan zadań, które nie są już liniowe i przewidywalne. Analitycy nie mają wątpliwości, że Arm w serwerach rośnie jak na drożdżach – prognozy mówią nawet o 90% udziału w segmencie serwerowych CPU dla AI ASIC do 2029 roku. Dowody? Nvidia już przerzuciła swoje platformy na Grace (Arm), AWS zastępuje x86 własnymi chipami w klastrach Trainium 3, a Google wymienia CPU w TPU-farmach na autorskie Axion (też Arm). [3]

Meta gra w tę grę szeroko. W lutym ujawniła wdrożenia Grace na dużą skalę, potem zapowiedziała Nvidię Vera (88 rdzeni Arm), a równolegle współtworzy z Arm własny „AGI CPU” – 136 rdzeni Neoverse V3 w 300-watowym budżecie, planowany do wejścia do centrów danych później w tym roku. Umowa z AWS może więc pełnić rolę mostu: dziś hostowane Gravitony, jutro – podobna architektura na własnym żelazie. [3]

Fakty na stół

  • Skala: „dziesiątki milionów rdzeni” na start, z możliwością zwiększenia. AWS mówi wprost: Meta staje się jednym z największych klientów Graviton na świecie. [1][7]
  • Generacja: Graviton5, z deklarowanym skokiem wydajności o ok. 25% względem Graviton4.
  • Architektura i I/O: 192 rdzenie Neoverse V3, większe cache, DDR5-8800, PCIe Gen6. Instancje oparte o Nitro, z opcją bare metal i EFA do szybkiej komunikacji między węzłami.
  • Model konsumpcji: hostowane w AWS. Meta kupuje więc nie tylko chipy, ale i energię, chłodzenie, sieć – cały „pakiet” infrastruktury.
  • Stos AI: poza sprzętem intensywnie korzysta z warstwy usługowej AWS (Bedrock) do budowy aplikacji generatywnych.

Komentarz: zbrojenia w rdzenie, nie wojna z x86

Łatwo to czytać jako kolejne „Arm vs x86”. To za proste. Prawdziwy wniosek jest inny: najwięksi gracze zabezpieczają zasoby z wyprzedzeniem, bo agentowe AI wyssa z rynku każdą wiązkę mocy CPU, jaką da się dorwać. To dobra wiadomość dla AWS (sprzedaje gotowe „bloki mocy”), świetna dla Arm (legitymizacja serwerowego ekosystemu), ale wcale nie musi być zła dla AMD czy Intela – popyt na CPU rośnie po prostu szybciej, niż któraś pojedyncza linia produkcyjna potrafi go nasycić.

Jest tu też trzeźwa kalkulacja operacyjna. Skoro agentowe obciążenia mają być stałe, rozproszone i „rozmowne” (miliardy interakcji dziennie), to energooszczędne, gęste rdzenie Arm z dobrą siecią i przewidywalnym modelem kosztowym kuszą. A jeśli celem jest kontrola całego systemu – od kodu, przez orkiestrację, po łącza – to własne MTIA do trenowania i wnioskowania plus cudze Gravitony jako sprężysta warstwa CPU brzmią jak rozsądna układanka.

Co dalej?

Pytanie „po co im tyle mocy?” ma dzisiaj prozaiczną odpowiedź: na eksperymenty i szybkie skalowanie wewnętrzne. Ale drzwi do komercji też są uchylone. Przy takiej podaży rdzeni Meta może wygładzić drogę do oferowania agentowych usług (choćby Llama jako API) na własnych warunkach. Na szczegóły przyjdzie czas – dziś liczy się to, że w gospodarkę agentów Meta wchodzi z pasami bezpieczeństwa i pełnym bakiem.

Po nieudanej przygodzie z metawszechświatem, Zuck rzeczywiście „przytula Neoverse”. I ma ku temu dobry powód: w erze agentów najnudniejszy kawałek układanki – CPU – decyduje o tym, czy cała reszta działa jak orkiestra, czy jak jam session bez perkusisty.

FAQ

Czy Meta kupuje fizyczne chipy Graviton5, czy wynajmuje je w AWS?

Meta korzysta z hostowanych przez AWS procesorów Graviton5. Oznacza to, że kupuje usługę obejmującą chipy i całą infrastrukturę wokół nich.

Dlaczego Meta stawia na ARM zamiast x86 w tej umowie?

Powód to wydajność na wat i charakter agentowych obciążeń, które są mocno CPU-zależne. Graviton5 (Arm) daje gęstość rdzeni i efektywność, które dobrze pasują do orkiestracji zadań na dużą skalę.

O ile Graviton5 jest szybszy od Graviton4?

AWS podaje ok. 25% wzrostu wydajności ogólnej względem Graviton4. Zyski wynikają m.in. z większych cache i szybszej pamięci.

Kiedy autorski AGI CPU współtworzony przez Meta trafi do jej centrów danych?

Według zapowiedzi ARM ma to nastąpić później w tym roku. To CPU z 136 rdzeniami Neoverse V3, projektowane pod obciążenia data center.

Czy to oznacza koniec GPU w AI?

Nie. GPU pozostają kluczowe do treningu i częściowo do wnioskowania, ale agentowe AI przesuwa znaczną część pracy na CPU, które organizują i spajają cały system.

Źródła

🧠 Czy ten artykuł dał Ci nową perspektywę?
Jedno kliknięcie. Zero kont. PressMind uczy się razem z Tobą.
Ładowanie oceny…

PressMind Labs - Ślad badawczy

To nie jest ozdobnik. To ślad po procesie: ile informacji było szumem, ile stało się wiedzą i jak wyglądał research, zanim powstał ten tekst.

8 źródeł użytych w tekście
8 niezależnych domen
2 min 50 s czas researchu
Wysoki sygnał jakości
Skan tematu
193 z 315 sygnałów (RSS: 3083)
Zachowano: 193 (61%) | Odrzucono: 87 (28%)
Źródła (finalne)
8 źródeł z 8 domen
Start: 3 | Finalnie: 8
Czas researchu
2 min 50 s
Różnorodność domen: 8 Źródła użyte: 8 Kontekst: pominięty Liczby w tekście: 1

1. Zbieranie sygnałów (discovery)

Temat
Meta Buys Tens of Millions of AWS Graviton Arm Cores in a CPU Land Grab
RSS - źródeł w configu
93
RSS - stan źródeł
93 / 93 OK
RSS - przepływ (od surowych do unikalnych)
3083 -> 2998 -> 463 -> 315
RSS - usunięte duplikaty tytułów
5
Pula tematów (z RSS)
315
Wybrane do analizy
193
Odrzucone
87
Klastry (wątki)
150

2. Selekcja i filtrowanie

Odrzucono semantycznie (embedding)
11

3. Wyszukiwanie i wzbogacanie

Zapytania wyszukiwawcze
18
Unikalne wyniki
61
Kandydaci
25
Dodane z wyszukiwania (cache+live)
6
Przeskanowano URL-i (research)
3

4. Finalny kontekst

Źródła użyte w tekście
8
Źródła (domeny)
8
Wikipedia - kontekst
nie
Expansion - kontekst
nie
Wyłuskane liczby
1
Ten proces pokazuje, jak z dziesiątek sygnałów wyłania się kilka sprawdzonych źródeł, na których oparto finalny tekst.

Dodaj komentarz