Kiedy w styczniu wojsko Stanów Zjednoczonych pojmało byłego prezydenta Wenezueli Nicolása Maduro, użył narzędzia AI opracowany przez prywatną amerykańską firmę. Nie jest jasne, co dokładnie zrobiło to narzędzie, ale polityka firmy stanowi, że jej produktów nie można używać do stosowania przemocy ani do opracowywania broni.
Obecnie Pentagon rozważa zerwanie stosunków z tą firmą, Anthropic, ze względu na jej naleganie na ograniczenia sposobu, w jaki wojsko wykorzystuje swoją technologię, według Osie.
Napięcia między zabezpieczeniami sztucznej inteligencji a bezpieczeństwem narodowym nie są nowe. Jednak wiele wydarzeń, które miały miejsce w zeszłym miesiącu, zwróciło uwagę na kwestię bezpieczeństwa sztucznej inteligencji – w kontekście od rozwoju broni po etyczną reklamę.
Dlaczego to napisaliśmy
Sztuczna inteligencja rozwija się tak szybko, że niektórzy znawcy branży obawiają się, że kwestiom bezpieczeństwa nie poświęca się wystarczającej uwagi. To wywołuje dyskusję na temat tego, jak zrównoważyć innowacje, konkurencję i zabezpieczenia.
„Wiele osób zajmujących się sztuczną inteligencją od dawna myśli o bezpieczeństwie w różnych formach” – mówi Miranda Bogen, założycielka Laboratorium Zarządzania Sztuczną Inteligencją w Centrum Demokracji i Technologii. „Ale teraz te rozmowy toczą się na znacznie bardziej widocznej scenie”.
W tym miesiącu badacze zrezygnowali z pracy w dwóch dużych amerykańskich firmach zajmujących się sztuczną inteligencją, powołując się na niedociągnięcia w zabezpieczeniach firm dotyczących np. gromadzenia danych konsumenckich. W eseju z 9 lutego pt „Dzieje się coś wielkiego” inwestor Matt Shumer ostrzegł, że sztuczna inteligencja nie tylko wkrótce masowo zagrozi miejscom pracy Amerykanów, ale może także zacząć zachowywać się w sposób, którego jej twórcy „nie mogą przewidzieć ani kontrolować”. Esej stał się wirusowy w mediach społecznościowych.
Nalegając na podjęcie działań w przypadku bardzo realnych zagrożeń, wielu ekspertów w dziedzinie bezpieczeństwa sztucznej inteligencji przestrzega przed nadmiernym strachem dotyczącym hipotetycznych scenariuszy.
„Te momenty uwagi opinii publicznej są cenne, ponieważ otwierają drogę do niezbędnej debaty publicznej na temat sztucznej inteligencji” – napisała w e-mailu do „Monitora” dr Alondra Nelson, była członkini Organu Doradczego Wysokiego Szczebla ds. Sztucznej Inteligencji ONZ, podczas udziału w światowym szczycie poświęconym sztucznej inteligencji w Indiach. „Ale nie zastąpią one demokratycznych obrad, regulacji i prawdziwej odpowiedzialności publicznej”.
Presja na rywalizację
W grudniu prezydent Donald Trump wydał zarządzenie wykonawcze blokujące „uciążliwe” przepisy stanowe regulujące sztuczną inteligencję. Na przykład w swoim postanowieniu wymienił prawo stanu Kolorado, które zabrania „dyskryminacji algorytmicznej” w obszarach takich jak zatrudnianie i edukacja. Zarządzenie prezydenta poparli Republikanie, którzy stwierdzili, że zmuszanie firm zajmujących się sztuczną inteligencją do przestrzegania nadmiernych przepisów może postawić USA w niekorzystnej sytuacji konkurencyjnej w stosunku do Chin.
To poczucie rywalizacji wydaje się być głównym czynnikiem odejścia Anthropic od Pentagonu. Anthropic chce mieć pewność, że jej technologia nie będzie wykorzystywana do prowadzenia nadzoru domowego ani opracowywania broni strzelającej bez udziału człowieka.
Ale Departament Obrony, który stwierdził na początku tego roku, że wojsko amerykańskie „musi wykorzystywać swoją przewagę nad przeciwnikami w zakresie integracji (AI)”, chce wdrożyć technologię sztucznej inteligencji bez względu na indywidualną politykę firm, wynika z raportu opublikowanego przez Osie I Reutera.
„Nieustannie spotykamy się z presją, abyśmy odłożyli na bok to, co najważniejsze” – napisał Mrinank Sharma, badacz bezpieczeństwa sztucznej inteligencji, w opublikowanym publicznie list z rezygnacją z Anthropic w zeszłym tygodniu. Nie nawiązał do konkretnego wydarzenia, które doprowadziło go do rezygnacji, ale przestrzegł, że „nasza mądrość musi rosnąć w równym stopniu, jak nasza zdolność wpływania na świat, aby nie ponieść konsekwencji”.
Dr Bogen twierdzi, że zasady mające na celu zmuszenie dostawców sztucznej inteligencji do poddawania swoich modeli określonym testom lub inwestowania w bezpieczeństwo często sprowadzają się do wymogów dotyczących ujawniania informacji lub niewiążących zaleceń.
„Zachęty zdecydowanie zachęcają do szybkiego postępu, nawet jeśli istnieje potrzeba wzniesienia barierek” – mówi.
Czy świat jest „w niebezpieczeństwie”?
Osoby ostrzegające przed niebezpieczeństwami związanymi ze sztuczną inteligencją czasami używają języka egzystencjalnego.
Zoë Hitzig, była badaczka w OpenAI, w jednym z wywiadów wyraziła „głębokie zastrzeżenia” co do strategii firmy redakcyjny – napisała w zeszłym tygodniu dla „The New York Times”, obawiając się, że decyzja o rozpoczęciu testowania reklam w serwisie ChatGPT „tworzy potencjał manipulowania użytkownikami w sposób, którego nie mamy narzędzi do zrozumienia, nie mówiąc już o zapobieganiu”.
W liście z rezygnacją pana Sharmy z Anthropic ostrzegano, że „świat jest w niebezpieczeństwie”.
Niektórzy eksperci twierdzą, że taki język przynosi efekt przeciwny do zamierzonego.
„Uważam, że określenie tego «punktu bez powrotu» jest bardzo przygnębiające” – mówi dr Bogen.
Martwi się jednak, że w miarę jak ludzie będą decydowali się powierzyć większą część procesu decyzyjnego sztucznej inteligencji i uczą się wykorzystywać tę technologię w swojej pracy, tworzą zależności, które będą coraz trudniejsze do rozwikłania.
Mówi jednak, że ostatecznie ludzie są odpowiedzialni za swoje wybory i działania.
„Nie sądzę, że kiedykolwiek dojdziemy do punktu, w którym naprawdę niemożliwe będzie… podjęcie decyzji o tym, jak traktować tę nową technologię” – mówi.
Katherine Elkins, badaczka ds. bezpieczeństwa sztucznej inteligencji w Narodowym Instytucie Standardów i Technologii, twierdzi, że ma nadzieję, że myli się co do niektórych zagrożeń, które dostrzega, takich jak chatbot wykorzystujący sztuczną inteligencję, który może wykorzystywać czyjeś dane do manipulowania nimi. Ale dopóki nie będzie pewna, chce, aby bezpieczeństwo pozostało pilnym priorytetem.
„Osobiście uważam, że lepiej zachować ostrożność i poświęcić czas na myślenie o zagrożeniach związanych ze sztuczną inteligencją”, niż sądzić, że technologia nie będzie lepsza.


















