NOWYMożesz teraz słuchać artykułów Fox News!
Spór wynikający z pytań dotyczących wykorzystania modelu Anthropic firmy AI podczas amerykańskiej operacji wymierzonej w przywódcę Wenezueli Nicolasa Maduro wywołało w Pentagonie przegląd partnerstwa firmy, a wyżsi urzędnicy wyrazili obawy, że Anthropic może stanowić rzekome „ryzyko łańcucha dostaw”.
Axios jako pierwszy poinformował o rosnących napięciach między Pentagonu oraz Anthropic, firma technologiczna znana z położenia nacisku na zabezpieczenia sztucznej inteligencji.
Anthropic podpisał kontrakt z Pentagonem o wartości 200 milionów dolarów w lipcu 2025 roku.
Atak Trumpa w Wenezueli wywołuje konflikty z Konstytucją, gdy MADURO zostaje wciągnięty do nas
Jej model sztucznej inteligencji, Claude, był pierwszym modelem wprowadzonym do tajnych sieci.
Obecnie „poddaje się przeglądowi relacje Departamentu Wojny z Anthropic” – powiedział Fox News Digital główny rzecznik Pentagonu Sean Parnell.
„Nasz naród wymaga, aby nasi partnerzy byli gotowi pomóc naszym żołnierzom w każdej walce”.

Pentagon ocenił powyżej Anthropic, na którego czele stoi Dario Amodei, jako rzekome „ryzyko dla łańcucha dostaw”. (Priyanshu Singh/Reuters)
Według wyższego urzędnika administracji napięcie wzrosło, gdy Anthropic zapytał, czy Claude został wykorzystany do nalotu mającego na celu schwytanie Maduro, „co wywołało prawdziwe obawy w całym Departamencie Wojny, wskazując, że mogliby się nie zgodzić, gdyby tak było”.
„Biorąc pod uwagę zachowanie Anthropic, wielu wyższych urzędników DoW zaczyna postrzegać je jako zagrożenie dla łańcucha dostaw” – powiedział Fox News Digital starszy urzędnik Departamentu Wojny. „Możemy wymagać, aby wszyscy nasi dostawcy i wykonawcy poświadczyli, że nie korzystają z żadnych modeli antropicznych”.
Urzędnik Departamentu Wojny powiedział, że dyrektor Anthropic podniósł tę kwestię dyrektorowi Palantir, partnera w kontraktach Pentagonu. „Dyrektor Palantiru poinformował Pentagon o tej wymianie zdań, ponieważ był zaniepokojony faktem, że pytanie zostało postawione w sposób sugerujący, że Anthropic może nie wyrazić zgody na wykorzystanie ich oprogramowania w tym nalocie”.
Nie udało nam się od razu uzyskać komentarza od Palantira.
Anthropic kwestionuje tę charakterystykę. Rzecznik powiedział, że firma „nie omawiała wykorzystania Claude do konkretnych operacji z Departamentem Wojny” i nie omawiała takich kwestii z partnerami branżowymi „poza rutynowymi dyskusjami o kwestiach ściśle technicznych”.
Rzecznik dodał, że rozmowy Anthropic z Pentagonem „koncentrowały się na konkretnym zestawie pytań związanych z Polityką użytkowania – a mianowicie na naszych twardych ograniczeniach dotyczących w pełni autonomicznej broni i masowego nadzoru krajowego – z których żaden nie odnosi się do bieżących operacji”.

Według doniesień wojsko amerykańskie użyło narzędzia sztucznej inteligencji Anthropic Claude podczas operacji, w wyniku której pojmano wenezuelskiego przywódcę Nicolása Maduro. (Kurt „CyberGuy” Knutsson)

Według wyższego urzędnika administracji napięcie wzrosło, gdy Anthropic zapytał, czy Claude został wykorzystany do nalotu mającego na celu schwytanie Maduro, „co wywołało prawdziwe obawy w całym Departamencie Wojny, wskazując, że mogliby się nie zgodzić, gdyby tak było”. (Adam Gray/Reuters)
CZYM WŁAŚCIWIE MOGŁA BYĆ DOMNIEMANA „BRONA DŹWIĘKOWA” UŻYWANA W WENEZUELI
„Prowadzimy w dobrej wierze produktywne rozmowy z DoW na temat tego, jak kontynuować tę pracę i rozwiązać te złożone problemy” – powiedział rzecznik.
Urzędnicy Pentagonu zaprzeczyli jednak, jakoby ograniczenia związane z masową inwigilacją lub w pełni autonomiczną bronią znajdowały się w centrum obecnego sporu.
Pentagon naciska na wiodące firmy zajmujące się sztuczną inteligencją, aby autoryzowały swoje narzędzia do „wszystkich celów zgodnych z prawem”, starając się zapewnić możliwość wdrażania modeli komercyjnych we wrażliwych środowiskach operacyjnych bez ograniczeń narzucanych przez firmy.
Starszy urzędnik Departamentu Wojny powiedział, że inne wiodące firmy zajmujące się sztuczną inteligencją „współpracują z Pentagonem w dobrej wierze”, aby zapewnić, że ich modele będą mogły być wykorzystywane do wszelkich celów zgodnych z prawem.
„ChatGPT firmy OpenAI, Gemini firmy Google i Grok firmy xAI zgodziły się na to w niesklasyfikowanych systemach wojskowych, przy czym jedna wyraziła już zgodę we wszystkich systemach i jesteśmy optymistami, że pozostałe firmy dostaną się do tego w najbliższej przyszłości na tajnych ustawieniach” – powiedział urzędnik.
Rozwiązanie tego konfliktu może mieć wpływ na przyszłe kontrakty dotyczące sztucznej inteligencji w dziedzinie obronności. Jeśli departament będzie nalegał na nieograniczony dostęp do zgodnych z prawem celów wojskowych, firmy mogą spotkać się z presją, aby zawęzić lub ponownie rozważyć wewnętrzne zabezpieczenia podczas współpracy z klientami zajmującymi się bezpieczeństwem narodowym.
Z drugiej strony opór ze strony firm prowadzących politykę skupiającą się na bezpieczeństwie uwypukla rosnące tarcia na styku bezpieczeństwa narodowego i zarządzania korporacyjną sztuczną inteligencją – napięcie staje się coraz bardziej widoczne w miarę włączania pionierskich systemów sztucznej inteligencji do operacji obronnych.
Ani Anthropic, ani Pentagon nie potwierdziły, czy Claude został użyty w Maduro działanie. Zaawansowane systemy sztucznej inteligencji, takie jak Claude, są jednak zaprojektowane do robienia czegoś, z czym analitycy borykają się pod presją czasu: przetwarzania ogromnych ilości informacji w ciągu kilku sekund.
W przypadku operacji zagranicznej wysokiego ryzyka może to oznaczać szybkie sortowanie przechwyconej komunikacji, podsumowywanie raportów wywiadowczych, oznaczanie niespójności na zdjęciach satelitarnych lub porównywanie zapisów podróży i danych finansowych w celu potwierdzenia lokalizacji celu. Zamiast przeczesywać setki stron surowych informacji, planiści mogą poprosić system o wydobycie najbardziej istotnych szczegółów i zidentyfikowanie potencjalnych martwych punktów.
KLIKNIJ TUTAJ, ABY POBRAĆ APLIKACJĘ FOX NEWS
Modele sztucznej inteligencji mogą również pomóc planistom wojennym w przeprowadzeniu scenariuszy — co się stanie, jeśli konwój zmieni trasę, zmieni się pogoda lub jeśli cel poruszy się nieoczekiwanie. Dzięki szybkiej syntezie danych logistycznych, informacji o terenie i znanych wzorcach przeciwników, system może przedstawiać dowódcom opcje i ryzyko w czasie zbliżonym do rzeczywistego.
Debata na temat w pełni autonomicznej broni – systemów zdolnych do wybierania i atakowania celów bez udziału człowieka w podejmowaniu decyzji – stała się jedną z najbardziej kontrowersyjnych kwestii w rozwoju wojskowej sztucznej inteligencji. Zwolennicy twierdzą, że takie systemy mogłyby reagować szybciej niż ludzie w walce z dużą prędkością. Krytycy ostrzegają, że usunięcie ludzkiego osądu z śmiercionośne decyzje budzi poważne obawy prawne i związane z odpowiedzialnością w przypadku, gdy maszyna popełni fatalny błąd.


















