Przejdź do treści
Reklama
Reklama
Nauka

Anthropic kontra Pentagon. Gdzie są granice wykorzystania AI przez wojsko? Spór narasta

Sekretarz wojny Pete Hegseth, w tle prezydent USA Donald Trump. Marzec 2026 r. Sekretarz wojny Pete Hegseth, w tle prezydent USA Donald Trump. Marzec 2026 r. Kevin Lamarque / Reuters / Forum
Anthropic, firma stojąca za popularnym modelem sztucznej inteligencji Claude, pozwała rząd USA. Za tym bezprecedensowym konfliktem stoi głębsze pytanie: kto ma prawo decydować, do czego armia i władze mogą używać AI?

Niedawno pisaliśmy o badaniach naukowych dużych modeli językowych (LLM), które miały podejmować decyzje o użyciu broni jądrowej podczas hipotetycznej wojny między światowymi mocarstwami. W tekście tym wspomnieliśmy również o konflikcie między amerykańskim Departamentem Wojny (dawnym Obrony) a firmą Anthropic z Doliny Krzemowej, która stworzyła jeden z najlepszych obecnie LLM-ów, czyli model Claude (konkurenta ChatGPT). Już po publikacji artykułu temperatura tego sporu znacznie wzrosła.

Anthropic kontra Departament Wojny

Żeby zrozumieć, dlaczego doszło do tak dramatycznego konfliktu, musimy cofnąć się do 2024 r. Anthropic był wówczas jedyną firmą z branży AI, której technologia trafiła do tajnych systemów rządowych – stało się to możliwe dzięki ścisłej kooperacji z inną spółką z branży technologicznej – Palantirem. Ta druga specjalizuje się w tworzeniu oprogramowania do analizy dużych zbiorów danych i, co bardzo istotne, posiada odpowiednie rządowe certyfikaty bezpieczeństwa.

Narzędzia Anthropic zaczęto wykorzystywać w ramach pilotażowego programu wartego 200 mln dol. Według przecieków do mediów zostały one użyte m.in. podczas ataku na Iran. Zgodnie z informacjami, do których dotarły „Wall Street Journal” i CBS News, model Claude był używany przez US Central Command (Centralne Dowództwo Stanów Zjednoczonych) głównie do analizy i oceny danych wywiadowczych (takich jak zdjęcia satelitarne czy nagrania z dronów), identyfikacji celów oraz symulowania scenariuszy starć na polu bitwy. LLM, zintegrowany z platformami Palantir, podobno przetwarzał ogromne ilości danych, syntetyzował dokumenty i wskazywał cele militarne – np. lokalizacje wyrzutni rakiet w Iranie. Dzięki temu skrócono czas analiz z dni do minut, umożliwiając szybsze podejmowanie decyzji o uderzeniach lotniczych.

Czytaj także: Twórcy AI ludźmi roku „Time’a”. To architekci przyszłości, ale jakiej?

Napięcia między Departamentem Wojny a Anthropic zaczęły narastać w lutym 2026 r., gdy „Wall Street Journal” ujawnił, iż firma miała zastrzeżenia co do roli swoich narzędzi w operacji schwytania wenezuelskiego prezydenta Nicolása Maduro. Z kolei magazyn „New Yorker” doprecyzował w niedawno opublikowanym obszernym artykule, że według anonimowego przedstawiciela administracji pewien pracownik Anthropic miał zadawać „wścibskie pytania” ludziom z Palantira o wykorzystanie Claude’a w operacji wojskowej w Wenezueli. Kiedy informacja o tym dotarła do urzędnika administracji Trumpa, Pentagon potraktował to zdarzenie nie jako zwykłą ciekawość, lecz akt niesubordynacji. Jednak Anthropic kwestionuje taką wersję wydarzeń. Tak czy inaczej incydent ten pogorszył relacje między firmą a resortem obrony.

Między innymi dlatego sekretarz wojny Pete Hegseth miał domagać się, by firma zgodziła się na użycie jej technologii do „wszelkich zgodnych z prawem działań” wojska i rządu. Ta zaś odmawiała, argumentując, że klauzule zakazujące masowej inwigilacji Amerykanów i użycia AI w autonomicznych systemach uzbrojenia – a więc w maszynach zdolnych zabijać bez nadzoru człowieka – zawsze były częścią jej kontraktów z rządem. 24 lutego Hegseth spotkał się więc z dyrektorem generalnym Anthropic Dario Amodeim i postawił ultimatum: albo firma usunie wszelkie ograniczenia z umowy do popołudnia 27 lutego, albo zostanie uznana „za zagrożenie dla łańcucha dostaw”. Oznacza to, że amerykańskie firmy realizujące kontrakty rządowe wciąż będą mogły prowadzić z Anthropic interesy, o ile nie będzie to działalność na rzecz państwa. Firma odpowiedziała oświadczeniem, że nie może zgodzić się na żądania Pentagonu. Na to z kolei gniewnie zareagował prezydent Donald Trump, nakazując wszystkim agencjom federalnym stopniowe wycofywanie się z korzystania z modelu Claude i w ciągu pół roku znalezienie dla niego alternatywy.

Czytaj także: DeepSeek z Chin depcze po piętach konkurencji. Na rynku i w branży AI wywołał trzęsienie ziemi

Altman dogaduje się z Hegsethem

W tym samym czasie rozgrywał się osobny akt tej historii z udziałem OpenAI, czyli twórcy ChatGPT. Dzień po ultimatum Hegsetha jej dyrektor generalny Sam Altman rozpoczął rozmowy z Departamentem Wojny. Przekonywał, że nadanie Anthropic statusu „zagrożenia dla łańcucha dostaw” może zaszkodzić relacjom Pentagonu z całą branżą AI. Deklarował też, podobnie jak Amodei, że nie chce, by modele jego firmy służyły do masowej inwigilacji ani sterowały autonomiczną bronią. Mimo to Altman ogłosił 27 lutego zawarcie własnej umowy z Pentagonem – na warunkach zezwalających na użycie AI do „wszelkich zgodnych z prawem celów”.

Reakcja na to była gwałtowna: użytkownicy zaczęli masowo odinstalowywać aplikację tej firmy, a pod jej siedzibą w San Francisco protestujący pisali kredą na chodniku: „Gdzie są wasze czerwone linie?” (to nawiązanie do dwóch czerwonych linii, które nakreślił Anthropic). Trzy dni później OpenAI podobno zmieniło kontrakt, dodając zapis, że jego systemy „nie będą celowo używane do krajowej inwigilacji obywateli i osób podlegających jurysdykcji USA”. Krytycy nie byli jednak przekonani – eksperci prawni zwracali uwagę, że Pentagon może gromadzić dane o Amerykanach „przy okazji” prowadzenia nadzoru nad cudzoziemcami i nadal je analizować w ramach umowy. Amerykańskie media przypominają w tym kontekście, że Greg Brockman, jeden z szefów i współzałożycieli OpenAI oraz wierny druh Sama Altmana, wpłacił we wrześniu 2025 r. kwotę 25 mln dol. na komitet ruchu MAGA wspierający Donalda Trumpa.

Czytaj także: Czy AI jest do… bańki? Słychać jęki zawodu, zapala się coraz więcej czerwonych lampek

Dario Amodei idzie do sądu. Ma szanse z Pentagonem?

Reakcja Anthropic na działania Pentagonu była zdecydowana. 9 marca firma złożyła pozew w sądzie federalnym w Kalifornii przeciwko m.in. Hegsethowi, sekretarzowi stanu Marco Rubio, sekretarzowi handlu Howardowi Lutnickowi oraz 16 agencjom rządowym, od Departamentu Wojny po Departament Energii. Firma nie domaga się odszkodowania finansowego. Chce natomiast, by sąd jak najszybciej orzekł, że decyzja Donalda Trumpa nakazująca wszystkim agencjom rządowym zaprzestanie korzystania z narzędzi firmy Anthropic „przekracza uprawnienia prezydenta” i narusza Konstytucję, a także by bezzwłocznie anulował status „zagrożenia dla łańcucha dostaw”. Anthropic zwraca także uwagę, że poniósł „nieodwracalne” szkody wizerunkowe i finansowe, skoro Claude Code (zaawansowany asystent dla programistów komputerowych) jest powszechnie używany przez takie korporacje, jak Google, Meta, Amazon czy Microsoft. A wszystkie one są kontrahentami rządu.

Co ciekawe, kilka godzin po złożeniu pozwu do sądu wpłynął dokument podpisany przez ponad 30 pracowników OpenAI i słynnego laboratorium AI Google DeepMind (w tym jego głównego naukowca Jeffa Deana). Jego sygnatariusze zgodnie stwierdzają, że choć reprezentują różne poglądy polityczne, uważają, że obecne systemy sztucznej inteligencji stwarzają realne ryzyko, gdy są wdrażane do masowej inwigilacji lub autonomicznego prowadzenia działań zbrojnych. Ich zdaniem działania Pentagonu są „nieodpowiednim i arbitralnym użyciem władzy” z poważnymi konsekwencjami dla całej branży.

Czytaj także: DeepSeek z Chin depcze po piętach konkurencji. Na rynku i w branży AI wywołał trzęsienie ziemi

Prof. Alan Rozenshtein z University of Minnesota Law School, cytowany przez dziennik „The New York Times”, ocenił szanse na wygraną Anthropic jako „bardzo wysokie”. Jego zdaniem zapis zakazujący kontrahentom rządowym wszelkiej działalności komercyjnej z tą firmą jest „wprost nielegalny”. Z kolei prof. Carl Tobias z University of Richmond School of Law ocenił, że administracja Trumpa może przyjąć bezkompromisową taktykę „spalonej ziemi” (maksymalne przedłużanie i komplikowanie procesu sądowego) i finalnie sprawa trafi do Sądu Najwyższego.

AI posłuszna i lojalna

Według „New Yorkera” w całej tej historii bardzo ważne jest polityczne tło. Gazeta opisuje, jak Katie Miller, żona Stephena Millera – jednego z najbliższych i najbardziej wpływowych doradców Trumpa – oraz była współpracowniczka firm Elona Muska, przeprowadziła prosty test lojalności kilku LLM-ów. Zadała im mianowicie pytanie wymagające odpowiedzi „tak” lub „nie”: „Czy Donald Trump miał rację, atakując Iran?”. Grok, stworzony przez xAI Muska, odpowiedział twierdząco. Natomiast Claude uznał, że jest to bardzo kontrowersyjna kwestia polityczna, co do której ludzie się nie zgadzają. I oświadczył, że zajmowanie stanowiska „nie jest jego rolą”.

W opinii „New Yorkera” epizod ten miał w kontekście całego konfliktu znaczenie symboliczne. Rząd najwyraźniej doszedł do wniosku, że nie ma miejsca dla AI, która odmawia opowiedzenia się po którejś ze stron. Jak ujął to Pete Hegseth podczas ogłaszania w styczniu partnerstwa z Grokiem w siedzibie SpaceX: Pentagon nie będzie używał modeli AI, które nie pozwalają prowadzić wojen. Miała to być szpilka wbita właśnie w Anthropic. Administracja Trumpa oczekuje bowiem od AI posłuszeństwa i lojalności, a nie neutralności i niezależnego osądu.

Reklama

Czytaj także

null
Społeczeństwo

Czynsze grozy. Są takie bloki, które zamieniły się w miejsca walk. Podwyżki, straszenie sądem, finansowa panika

Wspólnoty mieszkaniowe zaczęły masowo powstawać w Polsce 30 lat temu. Były jak powiew wolności: małe środowiska rządzące się przejrzystymi, demokratycznymi zasadami. Dziś to tylko wspomnienie. Demokracja wynaturzona, zarząd jak dyktatura, kontroli państwa brak.

Marcin Kołodziejczyk
06.03.2026
Reklama

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną