NOWYMożesz teraz słuchać artykułów Fox News!

Spór wynikający z pytań dotyczących wykorzystania modelu Anthropic firmy AI podczas amerykańskiej operacji wymierzonej w przywódcę Wenezueli Nicolasa Maduro wywołało w Pentagonie przegląd partnerstwa firmy, a wyżsi urzędnicy wyrazili obawy, że Anthropic może stanowić rzekome „ryzyko łańcucha dostaw”.

Axios jako pierwszy poinformował o rosnących napięciach między Pentagonu oraz Anthropic, firma technologiczna znana z położenia nacisku na zabezpieczenia sztucznej inteligencji.

Anthropic podpisał kontrakt z Pentagonem o wartości 200 milionów dolarów w lipcu 2025 roku.

Atak Trumpa w Wenezueli wywołuje konflikty z Konstytucją, gdy MADURO zostaje wciągnięty do nas

Jej model sztucznej inteligencji, Claude, był pierwszym modelem wprowadzonym do tajnych sieci.

Obecnie „poddaje się przeglądowi relacje Departamentu Wojny z Anthropic” – powiedział Fox News Digital główny rzecznik Pentagonu Sean Parnell.

„Nasz naród wymaga, aby nasi partnerzy byli gotowi pomóc naszym żołnierzom w każdej walce”.

Dario Amodei, dyrektor generalny Anthropic, przemawia podczas szczytu Anthropic Builder Summit w Bengaluru w Indiach, 16 lutego 2026 r.

Pentagon ocenił powyżej Anthropic, na którego czele stoi Dario Amodei, jako rzekome „ryzyko dla łańcucha dostaw”. (Priyanshu Singh/Reuters)

Według wyższego urzędnika administracji napięcie wzrosło, gdy Anthropic zapytał, czy Claude został wykorzystany do nalotu mającego na celu schwytanie Maduro, „co wywołało prawdziwe obawy w całym Departamencie Wojny, wskazując, że mogliby się nie zgodzić, gdyby tak było”.

„Biorąc pod uwagę zachowanie Anthropic, wielu wyższych urzędników DoW zaczyna postrzegać je jako zagrożenie dla łańcucha dostaw” – powiedział Fox News Digital starszy urzędnik Departamentu Wojny. „Możemy wymagać, aby wszyscy nasi dostawcy i wykonawcy poświadczyli, że nie korzystają z żadnych modeli antropicznych”.

Urzędnik Departamentu Wojny powiedział, że dyrektor Anthropic podniósł tę kwestię dyrektorowi Palantir, partnera w kontraktach Pentagonu. „Dyrektor Palantiru poinformował Pentagon o tej wymianie zdań, ponieważ był zaniepokojony faktem, że pytanie zostało postawione w sposób sugerujący, że Anthropic może nie wyrazić zgody na wykorzystanie ich oprogramowania w tym nalocie”.

Nie udało nam się od razu uzyskać komentarza od Palantira.

Anthropic kwestionuje tę charakterystykę. Rzecznik powiedział, że firma „nie omawiała wykorzystania Claude do konkretnych operacji z Departamentem Wojny” i nie omawiała takich kwestii z partnerami branżowymi „poza rutynowymi dyskusjami o kwestiach ściśle technicznych”.

Rzecznik dodał, że rozmowy Anthropic z Pentagonem „koncentrowały się na konkretnym zestawie pytań związanych z Polityką użytkowania – a mianowicie na naszych twardych ograniczeniach dotyczących w pełni autonomicznej broni i masowego nadzoru krajowego – z których żaden nie odnosi się do bieżących operacji”.

Aplikacje wyświetlane na telefonie w ciągu

Według doniesień wojsko amerykańskie użyło narzędzia sztucznej inteligencji Anthropic Claude podczas operacji, w wyniku której pojmano wenezuelskiego przywódcę Nicolása Maduro. (Kurt „CyberGuy” Knutsson)

Prezydent Wenezueli Nicolas Maduro stanie przed sądem w Nowym Jorku w obliczu zarzutów federalnych.

Według wyższego urzędnika administracji napięcie wzrosło, gdy Anthropic zapytał, czy Claude został wykorzystany do nalotu mającego na celu schwytanie Maduro, „co wywołało prawdziwe obawy w całym Departamencie Wojny, wskazując, że mogliby się nie zgodzić, gdyby tak było”. (Adam Gray/Reuters)

CZYM WŁAŚCIWIE MOGŁA BYĆ DOMNIEMANA „BRONA DŹWIĘKOWA” UŻYWANA W WENEZUELI

„Prowadzimy w dobrej wierze produktywne rozmowy z DoW na temat tego, jak kontynuować tę pracę i rozwiązać te złożone problemy” – powiedział rzecznik.

Urzędnicy Pentagonu zaprzeczyli jednak, jakoby ograniczenia związane z masową inwigilacją lub w pełni autonomiczną bronią znajdowały się w centrum obecnego sporu.

Pentagon naciska na wiodące firmy zajmujące się sztuczną inteligencją, aby autoryzowały swoje narzędzia do „wszystkich celów zgodnych z prawem”, starając się zapewnić możliwość wdrażania modeli komercyjnych we wrażliwych środowiskach operacyjnych bez ograniczeń narzucanych przez firmy.

Starszy urzędnik Departamentu Wojny powiedział, że inne wiodące firmy zajmujące się sztuczną inteligencją „współpracują z Pentagonem w dobrej wierze”, aby zapewnić, że ich modele będą mogły być wykorzystywane do wszelkich celów zgodnych z prawem.

„ChatGPT firmy OpenAI, Gemini firmy Google i Grok firmy xAI zgodziły się na to w niesklasyfikowanych systemach wojskowych, przy czym jedna wyraziła już zgodę we wszystkich systemach i jesteśmy optymistami, że pozostałe firmy dostaną się do tego w najbliższej przyszłości na tajnych ustawieniach” – powiedział urzędnik.

Rozwiązanie tego konfliktu może mieć wpływ na przyszłe kontrakty dotyczące sztucznej inteligencji w dziedzinie obronności. Jeśli departament będzie nalegał na nieograniczony dostęp do zgodnych z prawem celów wojskowych, firmy mogą spotkać się z presją, aby zawęzić lub ponownie rozważyć wewnętrzne zabezpieczenia podczas współpracy z klientami zajmującymi się bezpieczeństwem narodowym.

Z drugiej strony opór ze strony firm prowadzących politykę skupiającą się na bezpieczeństwie uwypukla rosnące tarcia na styku bezpieczeństwa narodowego i zarządzania korporacyjną sztuczną inteligencją – napięcie staje się coraz bardziej widoczne w miarę włączania pionierskich systemów sztucznej inteligencji do operacji obronnych.

Ani Anthropic, ani Pentagon nie potwierdziły, czy Claude został użyty w Maduro działanie. Zaawansowane systemy sztucznej inteligencji, takie jak Claude, są jednak zaprojektowane do robienia czegoś, z czym analitycy borykają się pod presją czasu: przetwarzania ogromnych ilości informacji w ciągu kilku sekund.

W przypadku operacji zagranicznej wysokiego ryzyka może to oznaczać szybkie sortowanie przechwyconej komunikacji, podsumowywanie raportów wywiadowczych, oznaczanie niespójności na zdjęciach satelitarnych lub porównywanie zapisów podróży i danych finansowych w celu potwierdzenia lokalizacji celu. Zamiast przeczesywać setki stron surowych informacji, planiści mogą poprosić system o wydobycie najbardziej istotnych szczegółów i zidentyfikowanie potencjalnych martwych punktów.

KLIKNIJ TUTAJ, ABY POBRAĆ APLIKACJĘ FOX NEWS

Modele sztucznej inteligencji mogą również pomóc planistom wojennym w przeprowadzeniu scenariuszy — co się stanie, jeśli konwój zmieni trasę, zmieni się pogoda lub jeśli cel poruszy się nieoczekiwanie. Dzięki szybkiej syntezie danych logistycznych, informacji o terenie i znanych wzorcach przeciwników, system może przedstawiać dowódcom opcje i ryzyko w czasie zbliżonym do rzeczywistego.

Debata na temat w pełni autonomicznej broni – systemów zdolnych do wybierania i atakowania celów bez udziału człowieka w podejmowaniu decyzji – stała się jedną z najbardziej kontrowersyjnych kwestii w rozwoju wojskowej sztucznej inteligencji. Zwolennicy twierdzą, że takie systemy mogłyby reagować szybciej niż ludzie w walce z dużą prędkością. Krytycy ostrzegają, że usunięcie ludzkiego osądu z śmiercionośne decyzje budzi poważne obawy prawne i związane z odpowiedzialnością w przypadku, gdy maszyna popełni fatalny błąd.

Source link

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj