Jak wynika z opublikowanych dzisiaj nowych ocen bezpieczeństwa, wszystkie wiodące na świecie firmy zajmujące się sztuczną inteligencją otrzymały oceny negatywne lub prawie negatywne w związku z ich planami kontrolowania superinteligentnych systemów, nawet w trakcie wyścigu o opracowanie technologii, która mogłaby przewyższyć ludzką inteligencję.

Zimowy indeks bezpieczeństwa AI 2025 Instytutu Future of Life ocenił osiem wiodących firm zajmujących się sztuczną inteligencją w sześciu wymiarach, w tym ocenie ryzyka, obecnych szkód i bezpieczeństwa egzystencjalnego. Organizacje, które warto obserwować w 2023 r Zaproszenie do wystosowania listu otwartego z prośbą o moratorium na rozwój Jako jeden z najpotężniejszych systemów AI, utworzyliśmy niezależny komitet złożony z czołowych ekspertów w celu wdrożenia trzeciej edycji.

Anthropic, OpenAI i Google DeepMind przewodziły grupie z ogólną oceną od C+ do C, ale każda firma otrzymała ocenę D lub F, jeśli chodzi o zabezpieczenia egzystencjalne, czyli zdolność zapobiegania utracie kontroli przez zaawansowane systemy sztucznej inteligencji.

„Dyrektorzy AI twierdzą, że wiedzą, jak zbudować nadludzką sztuczną inteligencję, ale nikt nie pokazał, w jaki sposób mogą zapobiec utracie kontroli przez ludzi” – powiedział Stuart Russell, profesor informatyki na Uniwersytecie Kalifornijskim w Berkeley i jeden z ekspertów indeksu. W raporcie wskazano, że przedsiębiorstwa przyznały, że ryzyko katastrofalne może sięgać nawet jednej trzeciej, ale brakowało im konkretnych planów ograniczenia go do akceptowalnego poziomu.

Ocena ujawniła rosnącą przepaść między najlepszymi i gorszymi firmami, w tym xAI, Meta, chińskimi firmami DeepSeek, Z.ai i Alibaba Cloud. Firmy ogólnie słabo wypadły w domenie „Bieżące szkody”, która ocenia skuteczność modeli sztucznej inteligencji w standardowych testach niezawodności opracowanych w celu pomiaru bezpieczeństwa, solidności i zdolności do kontrolowania szkodliwych wyników. Recenzenci stwierdzili, że „częste awarie w zakresie bezpieczeństwa, słaba niezawodność i niewystarczająca kontrola poważnych zagrożeń to powszechny wzorzec” charakteryzujący się jednakowo słabymi wynikami w tych testach.

Anthropic otrzymał w tej kategorii najwyższą notę ​​C+, zaś xAI otrzymał ocenę niedostateczną. Wynik OpenAI spadł do C-. Od B w wydaniu 2częściowo inspirowany ostatnimi wydarzeniami ze świata rzeczywistego. Recenzenci zalecili firmie „zwiększenie wysiłków na rzecz zapobiegania chorobom psychicznym i samobójstwom spowodowanym przez sztuczną inteligencję oraz podjęcie mniej wrogich działań wobec rzekomych ofiar”.

„Gdybyś w 2016 roku usłyszał, że największe firmy technologiczne będą uruchamiać chatboty, które zachęcają dzieci do samobójstw i powodują udokumentowaną psychozę u długotrwałych użytkowników, brzmiałoby to jak sen z gorączki paranoidalnej” – powiedziała profesor i komentatorka HEC Montreal Tegan Maharaj.

W indeksie zauważono, że chociaż żaden z testowanych modeli nie osiągnął w pełni poziomu odniesienia, utrzymujące się niskie wyniki wszystkich firm ujawniły systemowe słabości w sposobie, w jaki branża radzi sobie z palącymi zagrożeniami dla bezpieczeństwa, zanim rozważy się bardziej spekulacyjne zagrożenia związane z superinteligentnymi systemami.

Po raz pierwszy pięć spółek wzięło udział w dogłębnym badaniu indeksu, zapewniając niespotykaną dotąd przejrzystość swoich praktyk w zakresie bezpieczeństwa. Recenzenci doszli jednak do wniosku, że nawet przedsiębiorstwom osiągającym najlepsze wyniki nie uda się spełnić nowych standardów regulacyjnych, w tym: Mam kodeks postępowania I SB53 w Kalifornii; Istnieją luki w niezależnym nadzorze, przejrzystym modelowaniu zagrożeń i mierzalnych progach ryzyka. Jeden z komentatorów ostrzegł: „Ogólnie rzecz biorąc, firmy osiągają słabe wyniki, a nawet najlepsze firmy przyjmują wątpliwe założenia w swoich strategiach bezpieczeństwa”.

Source link