Anthropic kontra Pentagon. Gdzie są granice wykorzystania AI przez wojsko? Spór narasta
Niedawno pisaliśmy o badaniach naukowych dużych modeli językowych (LLM), które miały podejmować decyzje o użyciu broni jądrowej podczas hipotetycznej wojny między światowymi mocarstwami. W tekście tym wspomnieliśmy również o konflikcie między amerykańskim Departamentem Wojny (dawnym Obrony) a firmą Anthropic z Doliny Krzemowej, która stworzyła jeden z najlepszych obecnie LLM-ów, czyli model Claude (konkurenta ChatGPT). Już po publikacji artykułu temperatura tego sporu znacznie wzrosła.
Anthropic kontra Departament Wojny
Żeby zrozumieć, dlaczego doszło do tak dramatycznego konfliktu, musimy cofnąć się do 2024 r. Anthropic był wówczas jedyną firmą z branży AI, której technologia trafiła do tajnych systemów rządowych – stało się to możliwe dzięki ścisłej kooperacji z inną spółką z branży technologicznej – Palantirem. Ta druga specjalizuje się w tworzeniu oprogramowania do analizy dużych zbiorów danych i, co bardzo istotne, posiada odpowiednie rządowe certyfikaty bezpieczeństwa.
Narzędzia Anthropic zaczęto wykorzystywać w ramach pilotażowego programu wartego 200 mln dol. Według przecieków do mediów zostały one użyte m.in. podczas ataku na Iran. Zgodnie z informacjami, do których dotarły „Wall Street Journal” i CBS News, model Claude był używany przez US Central Command (Centralne Dowództwo Stanów Zjednoczonych) głównie do analizy i oceny danych wywiadowczych (takich jak zdjęcia satelitarne czy nagrania z dronów), identyfikacji celów oraz symulowania scenariuszy starć na polu bitwy.