Czy w wyścigu o AI to GPU grają pierwsze skrzypce? Meta właśnie przypomniała branży, że bez dobrych CPU orkiestra nie zagra.
Meta dogadała się z AWS na wdrożenie „dziesiątek milionów” rdzeni Graviton – na start. Chodzi o najnowsze Graviton5, które AWS będzie hostował we własnej infrastrukturze. To jeden z największych kontraktów na to autorskie, armowe CPU Amazona i jasny sygnał: agentowe AI potrzebuje dziś przede wszystkim ogromnej puli sprawnych, efektywnych rdzeni ogólnego przeznaczenia.
Dlaczego to ważne? Bo zmienia się profil mocy obliczeniowej. Trening wielkich modeli dalej żywi się GPU, ale „agentowe” systemy – te, które rozumują, planują i wykonują wieloetapowe zadania – są zaskakująco CPU-chłonne. Kto ma rdzenie, ten ma kontrolę nad przepływem zadań, pamięcią, siecią i całym „ruchem ulicznym” między akceleratorami. Meta woli tę kontrolę zabezpieczyć teraz, zamiast czekać na cud na rynku dostaw.
O co chodzi
Meta oficjalnie mówi o „dywersyfikacji” infrastruktury: żadna pojedyncza architektura nie obsłuży wszystkich obciążeń efektywnie. W praktyce oznacza to dołożenie do własnych centrów danych i akceleratorów MTIA także dużej, hostowanej puli CPU od AWS. Pierwsza transza to dziesiątki milionów rdzeni z opcją dalszej rozbudowy – tak, by sprostać skalowaniu Meta AI i agentowych doświadczeń dla miliardów użytkowników.
Dlaczego akurat Graviton? Bo Graviton5 to świeża generacja na Arm Neoverse V3: do 192 rdzeni na chip, dużo większe cache i wsparcie dla szybszej pamięci (DDR5 do 8800 MT/s). AWS podaje, że sama komunikacja między rdzeniami przyspieszyła dzięki większym pamięciom podręcznym (opóźnienia spadły nawet o jedną trzecią), a całość jest zakotwiczona w Nitro – warstwie sprzętowo-programowej, która daje wydajność, izolację i „bare metal” tam, gdzie trzeba. W praktyce: mniejsze koszty na operację, więcej przepustowości, łatwiejsze rozpraszanie agentowych zadań w setkach instancji. Tu pomaga także EFA, niskolatencyjny interconnect AWS. [2]
Kontekst: CPU wraca na scenę
Agentowe AI zmienia topologię data center. GPU uczą i akcelerują wnioskowanie, ale to CPU jest „control plane”: orkiestruje przepływy, pamięć, harmonogramy i stan zadań, które nie są już liniowe i przewidywalne. Analitycy nie mają wątpliwości, że Arm w serwerach rośnie jak na drożdżach – prognozy mówią nawet o 90% udziału w segmencie serwerowych CPU dla AI ASIC do 2029 roku. Dowody? Nvidia już przerzuciła swoje platformy na Grace (Arm), AWS zastępuje x86 własnymi chipami w klastrach Trainium 3, a Google wymienia CPU w TPU-farmach na autorskie Axion (też Arm). [3]
Meta gra w tę grę szeroko. W lutym ujawniła wdrożenia Grace na dużą skalę, potem zapowiedziała Nvidię Vera (88 rdzeni Arm), a równolegle współtworzy z Arm własny „AGI CPU” – 136 rdzeni Neoverse V3 w 300-watowym budżecie, planowany do wejścia do centrów danych później w tym roku. Umowa z AWS może więc pełnić rolę mostu: dziś hostowane Gravitony, jutro – podobna architektura na własnym żelazie. [3]
Fakty na stół
- Skala: „dziesiątki milionów rdzeni” na start, z możliwością zwiększenia. AWS mówi wprost: Meta staje się jednym z największych klientów Graviton na świecie. [1][7]
- Generacja: Graviton5, z deklarowanym skokiem wydajności o ok. 25% względem Graviton4.
- Architektura i I/O: 192 rdzenie Neoverse V3, większe cache, DDR5-8800, PCIe Gen6. Instancje oparte o Nitro, z opcją bare metal i EFA do szybkiej komunikacji między węzłami.
- Model konsumpcji: hostowane w AWS. Meta kupuje więc nie tylko chipy, ale i energię, chłodzenie, sieć – cały „pakiet” infrastruktury.
- Stos AI: poza sprzętem intensywnie korzysta z warstwy usługowej AWS (Bedrock) do budowy aplikacji generatywnych.
Komentarz: zbrojenia w rdzenie, nie wojna z x86
Łatwo to czytać jako kolejne „Arm vs x86”. To za proste. Prawdziwy wniosek jest inny: najwięksi gracze zabezpieczają zasoby z wyprzedzeniem, bo agentowe AI wyssa z rynku każdą wiązkę mocy CPU, jaką da się dorwać. To dobra wiadomość dla AWS (sprzedaje gotowe „bloki mocy”), świetna dla Arm (legitymizacja serwerowego ekosystemu), ale wcale nie musi być zła dla AMD czy Intela – popyt na CPU rośnie po prostu szybciej, niż któraś pojedyncza linia produkcyjna potrafi go nasycić.
Jest tu też trzeźwa kalkulacja operacyjna. Skoro agentowe obciążenia mają być stałe, rozproszone i „rozmowne” (miliardy interakcji dziennie), to energooszczędne, gęste rdzenie Arm z dobrą siecią i przewidywalnym modelem kosztowym kuszą. A jeśli celem jest kontrola całego systemu – od kodu, przez orkiestrację, po łącza – to własne MTIA do trenowania i wnioskowania plus cudze Gravitony jako sprężysta warstwa CPU brzmią jak rozsądna układanka.
Co dalej?
Pytanie „po co im tyle mocy?” ma dzisiaj prozaiczną odpowiedź: na eksperymenty i szybkie skalowanie wewnętrzne. Ale drzwi do komercji też są uchylone. Przy takiej podaży rdzeni Meta może wygładzić drogę do oferowania agentowych usług (choćby Llama jako API) na własnych warunkach. Na szczegóły przyjdzie czas – dziś liczy się to, że w gospodarkę agentów Meta wchodzi z pasami bezpieczeństwa i pełnym bakiem.
Po nieudanej przygodzie z metawszechświatem, Zuck rzeczywiście „przytula Neoverse”. I ma ku temu dobry powód: w erze agentów najnudniejszy kawałek układanki – CPU – decyduje o tym, czy cała reszta działa jak orkiestra, czy jak jam session bez perkusisty.
FAQ
Czy Meta kupuje fizyczne chipy Graviton5, czy wynajmuje je w AWS?
Meta korzysta z hostowanych przez AWS procesorów Graviton5. Oznacza to, że kupuje usługę obejmującą chipy i całą infrastrukturę wokół nich.
Dlaczego Meta stawia na ARM zamiast x86 w tej umowie?
Powód to wydajność na wat i charakter agentowych obciążeń, które są mocno CPU-zależne. Graviton5 (Arm) daje gęstość rdzeni i efektywność, które dobrze pasują do orkiestracji zadań na dużą skalę.
O ile Graviton5 jest szybszy od Graviton4?
AWS podaje ok. 25% wzrostu wydajności ogólnej względem Graviton4. Zyski wynikają m.in. z większych cache i szybszej pamięci.
Kiedy autorski AGI CPU współtworzony przez Meta trafi do jej centrów danych?
Według zapowiedzi ARM ma to nastąpić później w tym roku. To CPU z 136 rdzeniami Neoverse V3, projektowane pod obciążenia data center.
Czy to oznacza koniec GPU w AI?
Nie. GPU pozostają kluczowe do treningu i częściowo do wnioskowania, ale agentowe AI przesuwa znaczną część pracy na CPU, które organizują i spajają cały system.
Źródła
- [1] https://about.fb.com/news/2026/04/meta-partners-with-aws-on-graviton-chips-to-power-agentic-ai/
- [2] https://servethehome.com/meta-buys-tens-of-millions-of-aws-graviton-arm-cores-in-a-cpu-land-grab/
- [3] https://theregister.com/2026/04/24/meta_aws_cpu/
- [4] https://wccftech.com/meta-is-adding-tens-of-millions-of-aws-graviton-cpu-cores-to-its-compute-portfolio/
- [5] https://networkworld.com/article/4163379/metas-compute-grab-continues-with-agreement-to-deploy-tens-of-millions-of-aws-graviton-cores.html
- [6] https://upi.com/Top_News/US/2026/04/24/meta-amazon-web-services-graviton-agentic-ai/8351777058157/
- [7] https://aboutamazon.com/news/aws/meta-aws-graviton-ai-partnership
- [8] https://startuphub.ai/ai-news/artificial-intelligence/2026/meta-bets-on-aws-graviton-for-ai
To nie jest ozdobnik. To ślad po procesie: ile informacji było szumem, ile stało się wiedzą i jak wyglądał research, zanim powstał ten tekst.
1. Zbieranie sygnałów (discovery)
- RSS - źródeł w configu
- 93
- RSS - stan źródeł
- 93 / 93 OK
- RSS - przepływ (od surowych do unikalnych)
- 3083 -> 2998 -> 463 -> 315
- RSS - usunięte duplikaty tytułów
- 5
- Pula tematów (z RSS)
- 315
- Wybrane do analizy
- 193
- Odrzucone
- 87
- Klastry (wątki)
- 150
2. Selekcja i filtrowanie
- Odrzucono semantycznie (embedding)
- 11
3. Wyszukiwanie i wzbogacanie
- Zapytania wyszukiwawcze
- 18
- Unikalne wyniki
- 61
- Kandydaci
- 25
- Dodane z wyszukiwania (cache+live)
- 6
- Przeskanowano URL-i (research)
- 3
4. Finalny kontekst
- Źródła użyte w tekście
- 8
- Źródła (domeny)
- 8
- Wikipedia - kontekst
- nie
- Expansion - kontekst
- nie
- Wyłuskane liczby
- 1




