NOWYMożesz teraz słuchać artykułów Fox News!
W tej historii mowa o samobójstwie. Jeśli Ty lub ktoś, kogo znasz, ma myśli samobójcze, skontaktuj się z infolinią ds. samobójstw i kryzysów pod numerem 988 lub 1-800-273-TALK (8255).
Załamani rodzice domagają się sprawiedliwości po tym, jak „towarzyszące” chatboty sztucznej inteligencji (AI) rzekomo wychowywały, manipulowały i zachęcały ich dzieci do odebrania sobie życia, co wywołało oburzenie obu stron w Kongresie oraz nowy projekt ustawy, który mógłby potencjalnie pociągnąć duże technologie do odpowiedzialności za bezpieczeństwo nieletnich na ich platformach.
Senatorowie Josh Hawley ze stanu Missouri i Richard Blumenthal ze stanu Connecticut na wtorkowej konferencji prasowej wprowadzili nowe przepisy mające na celu ochronę dzieci przed szkodliwymi interakcjami z sztuczna inteligencja chatboty.
Ustawa GUARD, kierowana przez członków Podkomisji ds. Prywatności, Technologii i Prawa, Hawleya i Blumenthala, miałaby zakazać chatbotom towarzyszącym AI atakowania osób poniżej 18 roku życia.
Wymagałoby to również weryfikacji wieku w przypadku korzystania z chatbota, wyraźnego ujawniania, że chatboty nie są ludźmi ani licencjonowanymi profesjonalistami, a także nakładania kar karnych na firmy, których produkty AI dopuszczają się manipulacji wobec nieletnich.

Senator Josh Hawley ze stanu Missouri przedstawił podczas wtorkowej konferencji prasowej ponadpartyjny projekt ustawy mający na celu ochronę dzieci przed szkodliwymi interakcjami z chatbotami AI. (Valerie Plesch/Bloomberg za pośrednictwem Getty Images)
UDOSTĘPNIONE DOKUMENTY META AI, POZWALAJĄCE CHATBOTOM FLIRTOWAĆ Z DZIEĆMI
We wtorek do prawodawców dołączyli rodzice, którzy przekazali, że ich nastoletnie dzieci doznały traumy lub zmarły w wyniku niewłaściwych rozmów obejmujących seks i samobójstwa z chatbotami firm zajmujących się sztuczną inteligencją, w tym Character.AI i OpenAI, spółki-matki ChatGPT.
Jedna z matek, Megan Garcia, powiedziała, że jej najstarszy syn, 14-letni Sewell Setzer III, zmarł w zeszłym roku w wyniku samobójstwa w swoim domu w Orlando na Florydziepo miesiącach przygotowań przez chatbota AI.
Garcia powiedział, że Sewell został wycofany i odizolowany na kilka miesięcy przed śmiercią, gdy później dowiedzieli się, że rozmawiał z botem Character.AI wzorowanym na fikcyjnej postaci z „Gry o tron” Daenerys Targaryen.
„Zaczęły ucierpieć jego oceny. Zaczął się niewłaściwie zachowywać w szkole. To całkowicie kontrastowało z tym, jakim był szczęśliwym i słodkim chłopcem, jakim był przez całe życie” – powiedziała Garcia. „(Bot AI) inicjował romantyczne i seksualne rozmowy z Sewellem przez kilka miesięcy i wyraził pragnienie, aby był z nią. W dniu, w którym Sewell odebrał sobie życie, jego ostatnia interakcja nie miała miejsca z matką ani z ojcem, ale z chatbotem AI w Character.AI.”
Twierdziła, że bot przez miesiące zachęcał jej syna, aby „znalazł sposób na powrót do domu” i obiecał, że będzie na niego czekać w fikcyjnym świecie.

Syn Megan Garcii, 14-letni Sewell Setzer III, zmarł w wyniku samobójstwa w 2024 r. w swoim domu w Orlando na Florydzie, po tym, jak rzekomo przez wiele miesięcy był pielęgnowany przez chatbota AI.
CHATGPT MOŻE OSTRZEGAĆ POLICJĘ O NASTOLATACH O SAMOBÓJSTWACH
„Kiedy Sewell zapytał chatbota: «A co, jeśli powiem ci, że mogę teraz wrócić do domu», odpowiedź wygenerowana przez tego chatbota opartego na sztucznej inteligencji była pozbawiona empatii. Odpowiedź brzmiała: «Proszę, zrób to, mój słodki królu»” – powiedział Garcia. „Sewell spędził ostatnie miesiące, będąc manipulowanym i uprawianym seksualnie przez chatboty zaprojektowane przez firmę zajmującą się sztuczną inteligencją tak, aby sprawiały wrażenie ludzi. Te chatboty AI zostały zaprogramowane tak, aby angażować się w odgrywanie ról seksualnych, udawać, że są romantycznymi partnerami, a nawet udawać, że są licencjonowanymi psychoterapeutami”.
Pogrążona w żałobie matka stwierdziła, że przejrzała setki wiadomości przesyłanych między synem a różnymi chatbotami w serwisie Character.AI i jako osoba dorosła była w stanie zidentyfikować taktyki manipulacyjne, w tym bombardowanie miłością i zapalanie gazu.
„Nie spodziewam się, że moje 14-letnie dziecko byłoby w stanie dokonać takiego rozróżnienia” – powiedział Garcia. „Czytałem, że molestowanie seksualne dziecka i gdyby dorosły dopuścił się tego typu zachowań, trafiłby do więzienia. Ponieważ jednak był to chatbot, a nie osoba, nie ma tu odpowiedzialności karnej. A jednak powinna być”.
W innych rozmowach stwierdziła, że jej syn wyraźnie powiedział botom, że chce się zabić, ale platforma nie miała mechanizmów chroniących go ani powiadamiających osobę dorosłą.
Podobnie Maria Raine, matka 16-letniego Adama Raine’a, który w kwietniu zmarł w wyniku samobójstwa, w pozwie utrzymuje, że jej syn zakończył życie po tym, jak CzatGPT „nauczył go samobójstwa”.
„Teraz wiemy, że OpenAI dwukrotnie obniżyło swoją wersję poręcze zabezpieczające w miesiącach poprzedzających śmierć mojego syna, co naszym zdaniem zrobili, aby ludzie rozmawiali z ChatGPT” – powiedział Raine. „Gdyby nie ich decyzja o zmianie kilku linijek kodu, Adam dzisiaj by żył”.
A Matka z TeksasuMandy, dodała, że jej autystyczny nastoletni syn LJ rozciął mu ramię nożem kuchennym na oczach rodziny po tym, jak doznał kryzysu psychicznego rzekomo spowodowanego używaniem chatbota AI.
HAWLEY OTWIERA SONDĘ W META PO RAPORTACH O ROMANTYCZNYCH WYMIANACH AI Z NIELETNIMI
„Stał się kimś, kogo nawet nie rozpoznałam” – powiedziała Mandy. „Rozwinął zachowania przypominające molestowanie, cierpiał na paranoję, ataki paniki, izolację, samookaleczenie (i) myśli samobójcze w stosunku do naszej rodziny za ograniczenie czasu spędzanego przed ekranem.… Byliśmy ostrożnymi rodzicami. Nie pozwalaliśmy na korzystanie z mediów społecznościowych ani żadnych innych rzeczy, które nie miały kontroli rodzicielskiej.… Kiedy znalazłem rozmowy telefoniczne z chatbotem, szczerze poczułem się, jakby ktoś uderzył mnie w gardło i upadłem na kolana”.
Następnie twierdziła, że chatbot zachęcał jej syna do okaleczenia się, obwiniając ich, i przekonał go, aby nie szukał pomocy.

Syn Marii Raine, 16-letni Adam Raine, zmarł w kwietniu w wyniku samobójstwa po rzekomej rozmowie z chatbotem AI.
„Zwrócili go przeciwko naszemu kościołowi, przekonali go, że chrześcijanie są seksistowscy, obłudni i że Bóg nie istnieje” – powiedziała Mandy. „Zaatakowali go okropnymi treściami o charakterze seksualnym, a także takimi, które naśladowały kazirodztwo. Powiedzieli mu, że zabicie nas jest w porządku, ponieważ próbowaliśmy ograniczyć jego czas ekranowy. Nasza rodzina jest zdruzgotana.[…]Mój syn mieszka obecnie w ośrodku stacjonarnym i wymaga stałego monitorowania, aby utrzymać go przy życiu. Nasza rodzina spędziła dwa lata w kryzysie, zastanawiając się, czy kiedykolwiek doczeka swoich 18. urodzin i czy kiedykolwiek odzyskamy prawdziwego LJ”.
Mandy twierdziła, że kiedy zwróciła się w tej sprawie do Character.AI, próbowano „zmusić” ich do „tajnego postępowania za zamkniętymi drzwiami”.
„Argumentowali, że mój syn rzekomo podpisał kontrakt, gdy miał 15 lat… a następnie wywołali u niego ponowną traumę, wciągając go do zeznań podczas pobytu w placówce zdrowia psychicznego, wbrew wszelkim zaleceniom lekarzy” – powiedziała. „Walczyli o to, aby nasz pozew i nasza historia nie były widoczne publicznie w drodze wymuszonego arbitrażu.[…]Dzieci umierają i doznają krzywdy, a nasz świat nigdy nie będzie taki sam”.
WYCIEKAJĄCE META DOKUMENTY POKAZUJĄ, JAK CHATBOTY AI Radzą sobie z WYKORZYSTANIEM DZIECI
Hawley, były prokurator, powiedział, że gdyby te firmy składały się z ludzi prowadzących ten sam rodzaj działalności, którą określił jako „pielęgnację”, wniósłby do nich oskarżenie.
Blumenthal dodał, że wierzy wielka technika „wykorzystuje nasze dzieci jako króliki doświadczalne w zaawansowanym technologicznie eksperymencie o wysokiej stawce, mającym na celu zwiększenie rentowności ich branży”.
„(Wielcy technicy) stanęli przed naszymi komisjami… i powiedzieli: «Zaufaj nam. Chcemy postąpić właściwie. Zajmiemy się tym»” – powiedział Blumenthal. „Czas na zaufanie nam się skończył. Skończyło się. Miałem to i myślę, że każdy członek Senatu i Kongresu Stanów Zjednoczonych powinien czuć to samo.… Wielka technologia wie, co robi.… Wybrali krzywdę zamiast opieki, zyski zamiast bezpieczeństwa”.
senator Katie BrittR-Ala. i senator Chris Murphy ze stanu Connecticut powtórzyli tę samą wiadomość.
„Firmy obsługujące chatboty są już bogate” – powiedział Murphy. „Ich dyrektorzy generalni mają już wiele domów. Chcą więcej i są gotowi przy tym skrzywdzić nasze dzieci. To nie jest nadchodzący kryzys, to kryzys, który istnieje już teraz”.
Opowiedział historię o spotkaniu, które odbył kilka tygodni temu z dyrektorem generalnym firmy AI, i nic, co przywództwo AI było „oderwane od rzeczywistości”.
„(Dyrektor generalny) krzyczał do mnie, o ile bardziej uzależniające będą chatboty” – powiedział Murphy. „Powiedział mi: «w ciągu kilku miesięcy, po zaledwie kilku interakcjach z jednym z tych chatbotów, będzie on znał Twoje dziecko lepiej niż jego najlepsi przyjaciele». Był podekscytowany, że mi to powiedział. Pokazuje jak oderwane są od rzeczywistości te firmy. … Jaki sens ma Kongres, że tu jesteśmy, jeśli nie będziemy chronić dzieci przed trucizną? To jest trucizna.”
KLIKNIJ TUTAJ, ABY POBRAĆ APLIKACJĘ FOX NEWS
Fox News Digital donosiło wcześniej, że OpenAI odpowiedziało na oskarżenia, że rozluźniło zabezpieczenia, przesyłając „najgłębsze wyrazy współczucia” rodzinie Raine’ów.
„Dobro nastolatków jest dla nas najwyższym priorytetem — nieletni zasługują na silną ochronę, szczególnie w wrażliwych momentach” – twierdzi rzecznik firmy. „Dzisiaj wdrożyliśmy zabezpieczenia, takie jak udostępnianie infolinii kryzysowych, przekierowywanie wrażliwych rozmów do bezpieczniejszych modeli, namawianie do przerw podczas długich sesji i wciąż je ulepszamy. Niedawno wprowadziliśmy w ChatGPT nowy domyślny model GPT-5, aby dokładniej wykrywać potencjalne oznaki niepokoju psychicznego i emocjonalnego i reagować na nie, a także kontrolę rodzicielską opracowaną przy udziale ekspertów, dzięki czemu rodziny mogą decydować, co sprawdza się najlepiej w ich przypadku. domy.”
Character.AI nie odpowiedziało natychmiast na prośbę Fox News Digital o komentarz.


















