OpenAI opublikowało nowe szacunki dotyczące liczby użytkowników ChatGPT, którzy wykazują możliwe oznaki zagrożeń zdrowia psychicznego, w tym manię, psychozę lub myśli samobójcze.

Firma podała, że ​​około 0,07% użytkowników ChatGPT aktywnych w danym tygodniu wykazywało takie objawy, dodając, że chatbot wykorzystujący sztuczną inteligencję (AI) rozpoznaje takie wrażliwe rozmowy i odpowiada na nie.

Choć OpenAI utrzymuje, że takie przypadki są „niezwykle rzadkie”, krytycy twierdzą, że nawet niewielki odsetek może obejmować setki tysięcy osób, ponieważ ChatGPT osiągnęło niedawno liczbę 800 milionów aktywnych użytkowników tygodniowo, w przeliczeniu na szefa Sama Altmana.

W miarę narastania analizy firma stwierdziła, że ​​zbudowała sieć ekspertów na całym świecie, którzy jej doradzają.

Jak podaje firma, wśród ekspertów znajduje się ponad 170 psychiatrów, psychologów i lekarzy podstawowej opieki zdrowotnej, którzy praktykowali w 60 krajach.

Według OpenAI opracowali szereg odpowiedzi w ChatGPT, aby zachęcić użytkowników do szukania pomocy w prawdziwym świecie.

Jednak rzut oka na dane firmy wzbudził zdziwienie wśród niektórych specjalistów zajmujących się zdrowiem psychicznym.

„Chociaż 0,07% wydaje się niewielkim odsetkiem na poziomie populacji liczącej setki milionów użytkowników, w rzeczywistości może to być całkiem spora liczba osób” – powiedział dr Jason Nagata, profesor badający wykorzystanie technologii wśród młodych dorosłych na Uniwersytecie Kalifornijskim w San Francisco.

„Sztuczna inteligencja może poszerzyć dostęp do wsparcia w zakresie zdrowia psychicznego i w pewnym sensie wspierać zdrowie psychiczne, ale musimy zdawać sobie sprawę z ograniczeń” – dodała dr Nagata.

Firma szacuje również, że 0,15% użytkowników ChatGPT prowadzi rozmowy zawierające „wyraźne oznaki potencjalnego planowania lub zamiaru samobójczego”.

OpenAI twierdzi, że ostatnie aktualizacje chatbota mają na celu „bezpieczne i empatyczne reagowanie na potencjalne oznaki urojeń lub manii” oraz odnotowywanie „pośrednich sygnałów potencjalnego samookaleczenia lub ryzyka samobójstwa”.

ChatGPT został również przeszkolony w zakresie przekierowywania poufnych rozmów „pochodzących z innych modeli do bezpieczniejszych modeli” poprzez otwarcie w nowym oknie.

W odpowiedzi na pytania BBC dotyczące krytyki dotyczącej liczby osób, których może to dotyczyć, OpenAI stwierdziło, że ten niewielki odsetek użytkowników oznacza znaczącą liczbę osób i zauważyło, że poważnie podchodzi do zmian.

Zmiany pojawiają się, gdy OpenAI staje przed rosnącą kontrolą prawną dotyczącą sposobu, w jaki ChatGPT wchodzi w interakcję z użytkownikami.

W jednym z najgłośniejszych procesów sądowych niedawno złożony przeciwko OpenAI małżeństwo z Kalifornii pozwało tę firmę w związku ze śmiercią ich nastoletniego syna, utrzymując, że w kwietniu ChatGPT namawiał go do odebrania sobie życia.

Pozew złożyli rodzice 16-letniego Adama Raine’a i był to pierwszy pozew oskarżający OpenAI o bezprawne spowodowanie śmierci.

W osobnej sprawie podejrzany o morderstwo-samobójstwo, które miało miejsce w sierpniu w Greenwich w stanie Connecticut, opublikował godziny swoich rozmów z ChatGPT, które wydają się podsycać urojenia rzekomego sprawcy.

Coraz więcej użytkowników zmaga się z psychozą AI, ponieważ „chatboty tworzą iluzję rzeczywistości” – powiedział profesor Robin Feldman, dyrektor Instytutu Prawa i Innowacji AI na Uniwersytecie Kalifornijskim. „To potężna iluzja”.

Powiedziała, że ​​OpenAI zasługuje na uznanie za „udostępnianie statystyk i wysiłki mające na celu rozwiązanie problemu”, ale dodała: „firma może wyświetlać na ekranie wszelkiego rodzaju ostrzeżenia, ale osoba zagrożona psychicznie może nie być w stanie ich zastosować”.

Source link