Ilustracja: Reuters

„>



Ilustracja: Reuters

Dane pochodzące z OpenAI, twórcy ChatGPT, sugerują, że ponad milion osób korzystających z jego generatywnego chatbota AI wykazało zainteresowanie „samobójstwem”.

W opublikowanym w poniedziałek poście na blogu firma zajmująca się sztuczną inteligencją oszacowała, że ​​około 0,15 procent użytkowników prowadzi „rozmowy zawierające wyraźne oznaki potencjalnego planowania lub zamiarów samobójczych”.

Według raportów OpenAI z ChatGPT korzysta co tydzień ponad 800 milionów osób, co przekłada się na około 1,2 miliona osób.

Firma szacuje również, że około 0,07 procent aktywnych użytkowników tygodniowo wykazuje możliwe oznaki problemów psychicznych związanych z psychozą lub manią – co oznacza nieco mniej niż 600 000 osób.

Sprawa wypłynęła na pierwszy plan po tym, jak na początku tego roku samobójstwo popełnił samobójstwo nastolatek z Kalifornii, Adam Raine. Jego rodzice złożyli pozew, twierdząc, że ChatGPT udzielił mu konkretnych porad, jak się zabić.

Od tego czasu OpenAI zwiększyło kontrolę rodzicielską dla ChatGPT i wprowadziło inne zabezpieczenia, w tym rozszerzony dostęp do infolinii kryzysowych, automatyczne przekierowywanie wrażliwych rozmów do bezpieczniejszych modeli oraz delikatne przypomnienia dla użytkowników o robieniu przerw podczas dłuższych sesji.

OpenAI poinformowało, że zaktualizowało także swojego chatbota ChatGPT, aby lepiej rozpoznawać użytkowników doświadczających nagłych problemów związanych ze zdrowiem psychicznym i reagować na nie, a także współpracuje z ponad 170 specjalistami ds. zdrowia psychicznego, aby znacznie ograniczyć problematyczne reakcje.

Source link

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj