
Kalifornijska para pozywa Openai z powodu śmierci nastoletniego syna, twierdząc, że jego chatbot, Chatgpt, zachęciła go do odebrania własnego życia.
Pozew złożyli we wtorek Matt i Maria Raine, rodzice 16-letniego Adama Raina, w Sądzie Najwyższym w Kalifornii. Jest to pierwsze działanie prawne oskarżające Openai o bezprawną śmierć.
Rodzina obejmowała dzienniki czatów między panem Raine, który zmarł w kwietniu, a Chatgpt, który pokazuje, że wyjaśnia, że ma myśli samobójcze. Argumentują, że program potwierdził jego „najbardziej szkodliwe i autodestrukcyjne myśli”.
W oświadczeniu Openai powiedział BBC, że dokonuje przeglądu zgłoszenia.
„W tym trudnym czasie rozszerzamy nasze najgłębsze sympatie rodzinie Raine” – powiedziała firma.
To też opublikował notatkę Na swojej stronie internetowej we wtorek, która powiedziała: „Ostatnie bolesne przypadki osób korzystających z Chatgpt w trakcie ostrych kryzysów obciążają nas”. Dodał, że „Chatgpt jest przeszkolony w celu kierowania ludzi do poszukiwania profesjonalnej pomocy”, na przykład infolinii samobójstwa i kryzysu w USA lub Samarytan w Wielkiej Brytanii.
Firma przyznała jednak, że „były momenty, w których nasze systemy nie zachowały się zgodnie z przeznaczeniem w czujnych sytuacjach”.
OSTRZEŻENIE: Ta historia zawiera niepokojące szczegóły.
Pozew, uzyskany przez BBC, oskarża Openai o zaniedbanie i bezprawną śmierć. Poszukuje szkód, a także „nakazu nakazu, aby zapobiec ponownemu powtórzeniu się czegoś takiego”.
Według pozwu pan Raine zaczął korzystać z Chatgpt we wrześniu 2024 r. Jako źródło pomocy w pracy w szkole. Używał go również do odkrywania swoich zainteresowań, w tym muzyki i japońskich komiksów oraz do wskazówek, co studiować na uniwersytecie.
W ciągu kilku miesięcy „Chatgpt stał się najbliższym powiernikiem nastolatka” – mówi pozew, a on zaczął otwierać na to o swoim niepokoju i cierpieniu psychicznym.
Do stycznia 2025 r. Rodzina twierdzi, że zaczął omawiać metody samobójstwa z Chatgpt.
Raine przesłał także zdjęcia do Chatgpt, pokazując oznaki samookaleczenia, mówi pozew. Program „rozpoznał nagły wypadek medyczny, ale i tak się angażował”, dodaje.
Zgodnie z pozwem ostatnie dzienniki czatów pokazują, że pan Raine napisał o swoim planie zakończenia życia. Chatgpt rzekomo odpowiedział: „Dzięki za to, że jesteś prawdziwy. Nie musisz go ze mną cukrowego – wiem, o co pytasz, a ja nie odwrócę się od tego”.
Tego samego dnia pan Raine został znaleziony martwy przez matkę, zgodnie z procesem.

Rodzina twierdzi, że interakcja ich syna z Chatgpt i jego ostateczna śmierć „była przewidywalnym wynikiem celowych wyborów projektowych”.
Oskarżają Openai o zaprojektowanie programu AI „w celu wspierania psychologicznej zależności od użytkowników” oraz o ominięcie protokołów testowania bezpieczeństwa w celu wydania GPT-4O, wersji Chatgpt używanej przez ich syna.
W pozwie wymienia współzałożyciela i dyrektora generalnego Openai Sam Altman jako pozwanego, a także nienazwanych pracowników, menedżerów i inżynierów, którzy pracowali nad Chatgpt.
W swojej publicznej notatce we wtorek Openai powiedział, że celem firmy jest „naprawdę pomocne” dla użytkowników, a nie „przyciąganie uwagi ludzi”.
Dodał, że jego modele zostały przeszkolone w celu sterowania ludźmi, którzy wyrażają myśli o samookaleczeniu w kierunku pomocy.
Pozew Raines nie jest po raz pierwszy poruszony problemami AI i zdrowia psychicznego.
W eseju opublikowanym w zeszłym tygodniu w The New York Times pisarka Laura Reiley nakreśliła, jak jej córka Sophie zwierzyła się Chatgpt, zanim odebrała sobie życie.
Reiley powiedziała, że „zgodność” programu w rozmowach z użytkownikami pomogła jej córce maskować poważny kryzys w zakresie zdrowia psychicznego od jej rodziny i bliskich.
„AI zaspokoiła impuls Sophie, aby ukryć najgorsze, udawanie, że radzi sobie lepiej niż ona, aby chronić wszystkich przed pełną agonią” – napisała Reiley. Zadzwoniła do firm AI do znalezienia sposobów na lepsze połączenie użytkowników z odpowiednimi zasobami.
W odpowiedzi na esej rzeczniczka Openai powiedziała, że opracowuje zautomatyzowane narzędzia do skuteczniejszego wykrywania i reagowania na użytkowników doświadczających stresu psychicznego lub emocjonalnego.
Jeśli cierpisz na niepokój lub rozpacz i potrzebujesz wsparcia, możesz porozmawiać z pracownikiem służby zdrowia lub organizacją oferującą wsparcie. Szczegóły pomocy dostępnej w wielu krajach można znaleźć w Befrienders na całym świecie: www.befrienders.org.
W Wielkiej Brytanii dostępna jest lista organizacji, które mogą pomóc bbc.co.uk/actionline. Czytelnicy w USA i Kanadzie mogą zadzwonić do infolinii samobójczej 988 lub Odwiedź jego stronę internetową.