Czy da się w jeden piątek wyrzucić jednego dostawcę AI za burtę, a drugiemu wręczyć przepustkę na tajne serwery – i to na tych samych warunkach, o które pierwszy właśnie walczył? Witamy w Pentagonie 2026.
Prezydent Donald Trump nakazał agencjom federalnym zaprzestanie korzystania z produktów Anthropic z sześciomiesięcznym okresem wygaszania. Tego samego dnia szef OpenAI Sam Altman ogłosił porozumienie z Pentagonem: wdrożenie modeli na sieci tajnej, z dwiema „czerwonymi liniami” – bez masowej inwigilacji wewnątrz kraju i z ludzkim nadzorem nad użyciem siły. Anthropic zapowiada zaskarżenie do sądu decyzji o wpisaniu firmy na listę „ryzyka łańcucha dostaw”.
To nie jest kolejna kłótnia o TOS-y. Stawką są granice użycia systemów AI przez wojsko USA, precedens dla całej branży i polityczny sygnał: kto stawia warunki, a kto je akceptuje. Administracja, która określa Departament Obrony jako „Departament Wojny”, chce modeli dostępnych do „wszystkich zgodnych z prawem zastosowań”. Największe laboratoria próbują wyznaczyć granice, zanim zrobi to prawo. [3]
O co poszło
Przez tygodnie Pentagon naciskał na dostawców AI, by dopuścili „wszystkie zgodne z prawem” użycia swoich modeli. Anthropic odmówiło zniesienia dwóch zastrzeżeń: zakazu masowej inwigilacji obywateli USA i braku wsparcia dla w pełni autonomicznych systemów broni. Firma argumentowała, że prawo nie nadąża za możliwościami AI w łączeniu publicznych danych w infrastrukturę nadzoru i że decyzje o użyciu siły muszą pozostać pod ludzką kontrolą.
Po impasie Trump publicznie zaatakował Anthropic, nakazując instytucjom federalnym „natychmiastowe” wycofanie technologii firmy (z fazą przejściową do sześciu miesięcy). Szef resortu obrony Pete Hegseth dołożył sankcję w trybie wykonawczym: uznał Anthropic za „ryzyko łańcucha dostaw dla bezpieczeństwa narodowego” i zakazał kontraktorom Pentagonu jakiejkolwiek komercyjnej współpracy z firmą – poza niezbędnym okresem migracji. [2][5]
Godziny później OpenAI wchodzi w miejsce właśnie zwolnione przez konkurenta. Altman ogłosił porozumienie z tym samym resortem, zawierające te same dwie zasady bezpieczeństwa, o które toczył się spór: bez masowej inwigilacji krajowej i z ludzkim nadzorem nad użyciem siły, w tym przy systemach autonomicznej broni. W pakiecie: własny „safety stack”, techniczne zabezpieczenia wymuszające te ograniczenia oraz deklaracja, że jeśli model odmówi wykonania zadania, rząd nie będzie wymuszał jego obejścia. Na razie nie ma jeszcze formalnego kontraktu, a wdrożenia mają dotyczyć środowisk chmurowych, nie systemów „na krawędzi” (drony, samoloty).
Kontekst: od „Claude Gov” do „wszystkich zgodnych z prawem”
Ironia sytuacji polega na tym, że Anthropic wcale nie było gołębiem w tej układance. To pierwsze duże laboratorium, które rok temu uruchomiło modele na tajnych sieciach z partnerem integracyjnym i dostarczyło wojsku odchudzone warianty Claude’a („Claude Gov”) z mniejszymi ograniczeniami niż wersje konsumenckie. W tle – kontrakty rzędu setek milionów dolarów, podobne porozumienia podpisane przez inne firmy, a także presja polityczna, by „ideologiczne strojenie” i polityki użycia nie krępowały wojskowych zastosowań.
Pentagon zapewnia, że nie prowadzi masowej inwigilacji wewnątrz kraju ani nie planuje wdrażać w pełni autonomicznych systemów broni – i że chodzi wyłącznie o to, by dostawca nie wstawiał własnego weta tam, gdzie prawo dopuszcza działanie. Równolegle jednak wewnętrzny dokument resortu mówi wprost: nie chcemy modeli z „ideologicznym tuningiem” i ograniczeniami polityk, które mogą limitować zgodne z prawem użycia militarne. Dwie prawdy naraz? Zależy, jak czytać „zgodne z prawem” w epoce, w której technologia w sekundę robi z danych OSINT coś, co dekadę temu wymagało aparatu państwowego.
Fakty, których nie da się ominąć
- Decyzja prezydenta: sześciomiesięczna faza wyjścia z Anthropic we wszystkich agencjach federalnych. Dodatkowo – zakaz współpracy z Anthropic dla kontraktorów wojskowych, obowiązujący od razu.
- Riposta Anthropic: „Żadna presja nic tu nie zmieni.” Firma zapowiada zaskarżenie statusu „ryzyka łańcucha dostaw”, zwracając uwagę, że taki wpis z mocy prawa dotyczy wyłącznie kontraktów z resortem obrony, a nie prywatnych klientów.
- Porozumienie OpenAI: te same czerwone linie, które Anthropic chciał zachować; własne zabezpieczenia techniczne; brak wymuszania „odblokowywania” modelu przez rząd; ograniczenie do chmury; formalna umowa jeszcze w przygotowaniu. [5]
- Branża: dziesiątki pracowników OpenAI i setki z Google podpisały list poparcia dla stanowiska Anthropic. Elon Musk podbił temperaturę sporu. A w konsumenckim świecie? Aplikacja Claude wskoczyła na drugie miejsce w darmowym rankingu App Store w USA. [4]
Co tu naprawdę gra
Gdy ostatecznie opadną emocje, zostaną trzy wnioski. Po pierwsze, „wszystkie zgodne z prawem użycia” to formuła, która w AI jest nieostra i trudna do zdefiniowania. Dokładnie dlatego laboratoria chcą twardych, technicznych gardeł na najbardziej ryzykownych zastosowaniach – zanim prawo nauczy się ich nazw.
Po drugie, konflikt nie był o to, „czy” stawiać granice (Pentagon właśnie je zaakceptował z OpenAI), tylko „kto” ma prawo je definiować i egzekwować. W przypadku Anthropic zaszła polityczna alergia na to, by prywatny dostawca narzucał warunki. OpenAI podało te same warunki w formie łatwiejszej do przyjęcia: wbudowane w technikę, a nie w PR, i z narracją „pomagamy deeskalować”.
Po trzecie, w tle jest czysta inżynieria ryzyka: ograniczenie wdrożeń do chmury i brak zielonego światła na systemy „edge” to przyznanie, że największe ryzyko pojawia się tam, gdzie model ma palec na spuście. Pentagon chce AI-first, ale jeszcze nie AI-armed bez człowieka w pętli.
Na finał
Spór Anthropic-Pentagon wchodzi na salę sądową, OpenAI pakuje się do sieci tajnej, a reszta branży notuje, gdzie naprawdę przebiega granica negocjacyjnej siły w nowym porządku – między „zgodne z prawem” a „zgodne z rozsądkiem”. Jeśli rząd przyjmie identyczne warunki od wszystkich dostawców, historia zapisze to jako nerwowy epizod. Jeśli nie – szykujmy się na ciąg dalszy sporu o to, kto uczy AI, żeby nie robiła rzeczy, których prawo jeszcze nie potrafi zakazać.
FAQ
Czy Anthropic jest zbanowany w administracji federalnej USA?
Tak, prezydent nakazał agencjom federalnym zakończenie użycia technologii Anthropic z sześciomiesięcznym okresem wygaszania. Dodatkowo kontraktorom Pentagonu zakazano natychmiast wszelkiej komercyjnej współpracy z Anthropic. [2]
Czy Pentagon będzie mógł używać OpenAI do w pełni autonomicznej broni?
Nie, porozumienie obejmuje wymóg ludzkiej odpowiedzialności za użycie siły i brak wsparcia dla w pełni autonomicznych systemów broni. Te „czerwone linie” zostały zapisane w uzgodnieniach.
Kiedy modele OpenAI trafią na tajną sieć Pentagonu?
Nie podano publicznej daty. Ogłoszono porozumienie ramowe, ale formalny kontrakt nie został jeszcze podpisany.
Czy status „ryzyka łańcucha dostaw” dla Anthropic dotyczy też klientów spoza wojska?
Nie, z mocy prawa dotyczy on kontraktów z resortem obrony. Anthropic twierdzi, że nie wpływa on na obsługę innych klientów i zamierza zaskarżyć tę decyzję.
Czy aplikacja Claude zniknie z iPhone’ów po decyzjach rządu USA?
Nie, decyzje dotyczą sektora publicznego i kontrahentów wojskowych, nie sklepów z aplikacjami. W praktyce zainteresowanie wzrosło – Claude awansował na drugie miejsce w darmowym rankingu App Store w USA.
Źródła
- [1] https://arstechnica.com/tech-policy/2026/02/trump-moves-to-ban-anthropic-from-the-us-government/
- [2] https://decrypt.co/359453/trump-orders-federal-agencies-dump-woke-anthropic-ai
- [3] https://thehackernews.com/2026/02/pentagon-designates-anthropic-supply.html
- [4] https://tomshardware.com/tech-industry/artificial-intelligence/openai-strikes-deal-with-pentagon-following-claude-blacklisting
- [5] https://techcrunch.com/2026/02/28/openais-sam-altman-announces-pentagon-deal-with-technical-safeguards/
- [6] https://thenewstack.io/perplexity-computer-vibe-coding-openai-anthropic-pentagon/
- [7] https://techcrunch.com/2026/02/28/anthropics-claude-rises-to-no-2-in-the-app-store-following-pentagon-dispute/
To nie jest ozdobnik. To ślad po procesie: ile informacji było szumem, ile stało się wiedzą i jak wyglądał research, zanim powstał ten tekst.
1. Zbieranie sygnałów (discovery)
- RSS - źródeł w configu
- 89
- RSS - stan źródeł
- 89 / 89 OK
- RSS - przepływ (od surowych do unikalnych)
- 3121 -> 3026 -> 443 -> 316
- RSS - usunięte duplikaty tytułów
- 4
- Pula tematów (z RSS)
- 316
- Wybrane do analizy
- 195
- Odrzucone
- 92
- Duplikaty (archiwum tematów)
- 1
- Klastry (wątki)
- 143
2. Selekcja i filtrowanie
- Odrzucono semantycznie (embedding)
- 0
3. Wyszukiwanie i wzbogacanie
- Zapytania wyszukiwawcze
- 0
- Unikalne wyniki
- 0
- Kandydaci
- 0
- Dodane z wyszukiwania (cache+live)
- 0
- Przeskanowano URL-i (research)
- 7
4. Finalny kontekst
- Źródła użyte w tekście
- 7
- Źródła (domeny)
- 6
- Wikipedia - kontekst
- tak
- Expansion - kontekst
- nie
- Wyłuskane liczby
- 1




