Claude, model sztucznej inteligencji opracowany przez Antropicznyzostał wykorzystany przez armię amerykańską podczas operacji porwania Nicolása Maduro z Wenezueli, „Wall Street Journal” ujawnił w sobotę głośny przykład tego, jak amerykański departament obrony wykorzystuje sztuczną inteligencję w swoich operacjach.
Nalot USA trwa Wenezuela Według ministerstwa obrony Wenezueli doszło do zamachu bombowego w stolicy, Caracas, w wyniku którego zginęły 83 osoby. Warunki użytkowania Anthropic zabraniają wykorzystywania Claude do celów brutalnych, do opracowywania broni lub do prowadzenia inwigilacji.
Anthropic był pierwszym twórcą sztucznej inteligencji, o którym wiadomo, że został wykorzystany w tajnej operacji Departamentu Obrony USA. Nie było jasne, w jaki sposób narzędzie, które ma możliwości od przetwarzania plików PDF po pilotowanie autonomicznych dronów, zostało wdrożone.
Rzecznik Anthropic odmówił komentarza na temat tego, czy w operacji wykorzystano Claude, ale stwierdził, że jakiekolwiek użycie narzędzia sztucznej inteligencji jest wymagane w celu zapewnienia zgodności z zasadami jego użytkowania. Departament obrony USA nie skomentował tych doniesień.
WSJ powołała się na anonimowe źródła, które podały, że Claude był wykorzystywany w ramach partnerstwa Anthropic Palantir Technologies, wykonawca dla Departamentu Obrony USA i federalnych organów ścigania. Palantir odmówił komentarza w sprawie roszczeń.
USA i inne siły zbrojne coraz częściej wdrażają sztuczną inteligencję jako część swoich arsenałów. Izraelska armia korzystała w Gazie z autonomicznych dronów i szeroko wykorzystywała sztuczną inteligencję do zapełnienia swojego banku celów w Gazie. The Wojsko USA w ostatnich latach wykorzystywał sztuczną inteligencję do ataków w Iraku i Syrii.
Krytycy ostrzegali przed wykorzystaniem sztucznej inteligencji w technologiach zbrojeniowych i wdrażaniem autonomicznych systemów uzbrojenia, wskazując na błędy popełniane przez komputery określające, kto powinien, a kto nie powinien zostać zabity.
Firmy zajmujące się sztuczną inteligencją zmagają się z tym, w jaki sposób ich technologie powinny współpracować z sektorem obronnym, a dyrektor generalny Anthropic, Dario Amodei, wezwał do wprowadzenia regulacji zapobiegających szkodom wynikającym z wdrożenia sztucznej inteligencji. Amodei wyraził również ostrożność w związku z wykorzystaniem sztucznej inteligencji w autonomicznych śmiercionośnych operacjach i inwigilacji w USA.
To bardziej ostrożne stanowisko najwyraźniej zirytowało Departament Obrony USA, a sekretarz wojny Pete Hegseth powiedział w styczniu, że departament nie będzie „stosował modeli sztucznej inteligencji, które nie pozwolą na prowadzenie wojen”.
Pentagon ogłosił w styczniu, że będzie współpracował z xAI, którego właścicielem jest Elon Musk. Departament obrony wykorzystuje również niestandardową wersję systemów Google Gemini i OpenAI do wspierania badań.


















