Wojsko USA przywódcy, w tym Pete’a Hegsethasekretarz obrony spotkał się we wtorek z kadrą kierowniczą firmy Anthropic zajmującej się sztuczną inteligencją, aby załagodzić spór dotyczący tego, co rząd będzie mógł zrobić z potężnym modelem sztucznej inteligencji firmy. Hegseth dał Dario Amodei, dyrektorowi generalnemu Anthropic, czas do końca piątku na wyrażenie zgody na warunki działu pod groźbą kar, Osie zgłoszone.
Antropiczny, który prezentuje się jak najbardziej bezpieczeństwo do przodu z wiodących firm zajmujących się sztuczną inteligencją, pogrążyła się w tygodniowych sporach z Pentagonem w sprawie zezwolenia wojsku na używanie jego wielkojęzykowego modelu, Claude. Urzędnicy obrony USA nalegali na nieskrępowany dostęp do możliwości Claude’a, podczas gdy Anthropic to zrobiło podobno stawiał opór umożliwienie wykorzystania swojego produktu do masowego nadzoru lub autonomicznych systemów uzbrojenia, które mogą wykorzystywać sztuczną inteligencję do zabijania ludzi bez udziału człowieka. Departament Obrony (DoD) włączył Claude’a do swoich operacji, ale zagroził zerwaniem relacji w związku z tym, co jego najwyższa władza postrzega jako blokady drogowe wzniesione przez Anthropic.
Stawką w negocjacjach jest to, czy sztuczna inteligencja przemysł będzie przeciwstawiał się rządowemu żądaniu wykorzystania ich produktów do celów wojskowych, co od dawna budzi kontrowersje wśród badaczy i zwolenników etycznej sztucznej inteligencji. Władze obrony już to zrobiły groził zastosowaniem kar przeciwko Anthropic, jeśli ta nie zastosuje się do tych wymogów, łącznie z anulowaniem ogromnej umowy z firmą i uznaniem jej za „ryzyko łańcucha dostaw”.
Departament Obrony zawarł kontrakty z kilkoma dużymi firmami firm zajmujących się sztuczną inteligencją, w tym Anthropic, Google i OpenAI, w lipcu ubiegłego roku oferując im kontrakty o wartości do 200 mln dolarów. Jednak do tego tygodnia produkt Claude firmy Anthropic był jedynym modelem dopuszczonym do użytku w tajnych systemach wojskowych. Departament Obrony podpisał umowę w poniedziałek co pozwoliło na wykorzystanie w tajnych systemach przez personel wojskowy chatbota xAI Elona Muska, który spotkał się ostatnio z ostrym sprzeciwem w związku z wytwarzaniem bez zgody i seksualizowanych zdjęć dzieci.
Zarówno xAI, jak i OpenAI zgodziły się na rządowe warunki dotyczące wykorzystania ich sztucznej inteligencji, według do „Washington Post”, gdzie urzędnik obrony stwierdził, że OpenAI zezwoliło na wykorzystywanie swojego modelu „do wszelkich celów zgodnych z prawem”. OpenAI nie odpowiedziało natychmiast na prośbę o komentarz w sprawie porozumienia z rządem.
Spotkanie Anthropic i Pentagonu odbędzie się miesiąc po Wojsko USA podobno wykorzystał Claude’a do pomocy w schwytaniu wenezuelskiego przywódcy Nicolása Maduro. Administracja Trumpa wywierała szerokie naciski na włączenie sztucznej inteligencji do wojska, podczas gdy Donald Trump wielokrotnie obiecywał, że Stany Zjednoczone wygrają światowy wyścig zbrojeń oparty na sztucznej inteligencji, aby zdominować tę technologię.
Emil Michael, dyrektor ds. technologii w Pentagonie i były dyrektor Ubera, publicznie namawiał Anthropic do „przekroczenia Rubikonu” i wyrażenia zgody na warunki rządu.
„Myślę, że jeśli ktoś chce zarabiać pieniądze od rządu, od Departamentu Wojny Stanów Zjednoczonych, te poręcze powinny zostać dostosowane do naszych zastosowań – pod warunkiem, że są zgodne z prawem” – Michael powiedział w zeszłym tygodniu Defense Scoop.
W międzyczasie Amodei z Anthropic od dawna opowiadał się za większymi regulacjami dotyczącymi sztucznej inteligencji, podczas gdy jego firma wspierała komitet działań politycznych opowiadający się za silniejszymi zabezpieczeniami sztucznej inteligencji. Amodei sprzeciwiał się Trumpowi podczas kampanii prezydenckiej w USA w 2024 r., a firma Anthropic zatrudniła kilku byłych pracowników Bidena, co – podał „Wall Street Journal”. przyczyniła się do wycofania się protrumpowskiej firmy venture capital z inwestycji w Anthropic na początku tego roku.
Pentagon ma w ostatnich latach przelał miliardy dolarów w rozwój technologii wykorzystujących sztuczną inteligencję, od bezzałogowych dronów po zautomatyzowane systemy celownicze. Postęp tych technologii przyspieszył pojawianie się pytań etycznych dotyczących tego, ile mocy decyzyjnej należy scedować na sztuczną inteligencję, jeśli chodzi o śmiercionośną siłę. Te debaty nie mają już charakteru teoretycznego i nie pojawiają się w nich walki na Ukrainie śmiercionośne półautonomiczne drony które mogą działać bez kontroli człowieka.