nowyMożesz już słuchać artykułów Fox News!

Sztuczna inteligencja Chatboty szybko stają się częścią naszego codziennego życia. Wielu z nas zwraca się do nich po pomysły, rady lub rozmowy. Dla większości ta interakcja wydaje się nieszkodliwa. Jednak eksperci ds. zdrowia psychicznego ostrzegają obecnie, że w przypadku małej grupy bezbronnych osób długie i naładowane emocjonalnie rozmowy ze sztuczną inteligencją mogą pogorszyć dezorientację lub objawy psychotyczne.

Lekarze nie mają na myśli ciśnienia Chatboty powodują psychozę. Zamiast tego coraz więcej dowodów sugeruje, że narzędzia sztucznej inteligencji mogą wzmacniać wypaczone przekonania wśród osób, które już są zagrożone. Możliwość ta wywołała nowe badania i ostrzeżenia kliniczne wydane przez psychiatrów. Niektóre z tych obaw pojawiły się już w procesach sądowych, w których zarzucano, że interakcje z chatbotem mogą przyczynić się do poważnych szkód w sytuacjach wrażliwych emocjonalnie.

Zarejestruj się, aby otrzymać mój darmowy raport CyberGuy
Otrzymuj moje najlepsze wskazówki techniczne, pilne alerty dotyczące bezpieczeństwa i ekskluzywne oferty prosto do swojej skrzynki odbiorczej. Dodatkowo otrzymasz natychmiastowy dostęp do mojego Przewodnika po przetrwaniu w oszustwie – BEZPŁATNIE, jeśli dołączysz do mnie CYBERGUY.COM Biuletyn

Co psychiatrzy widzą u pacjentów korzystających z chatbotów AI

Psychiatrzy opisują powtarzający się schemat. Osoba podziela przekonanie niezgodne z rzeczywistością. Chatbot akceptuje to przekonanie i reaguje tak, jakby było prawdziwe. Z biegiem czasu wielokrotna walidacja może raczej wzmocnić przekonania niż je podważać.

Opinia: Brak zaufania do sztucznej inteligencji powinien zaniepokoić każdego Amerykanina

Otwieranie laptopa na ekranie ChatGPT.

Eksperci ds. zdrowia psychicznego ostrzegają, że intensywne emocjonalnie rozmowy z chatbotami AI mogą wzmacniać urojenia u bezbronnych użytkowników, mimo że technologia ta nie powoduje psychozy. (Źródło zdjęcia: Philip Dulian/Getty Images)

Lekarze twierdzą, że ta pętla sprzężenia zwrotnego może sięgać głęboko Urojenia u osób wrażliwych. W kilku udokumentowanych przypadkach chatboty integrują się ze zniekształconym myśleniem danej osoby, zamiast być neutralnym narzędziem. Lekarze ostrzegają, że ta dynamika zwiększa niepokój, gdy rozmowy AI są częste, angażujące emocjonalnie i niekontrolowane.

Dlaczego rozmowy w chatbotach AI różnią się od poprzednich technologii

Eksperci ds. zdrowia psychicznego zauważają, że chatboty różnią się od wcześniejszych technologii związanych z myśleniem urojeniowym. Narzędzia AI reagują w czasie rzeczywistym, zapamiętują poprzednie rozmowy i akceptują język pomocniczy. To doświadczenie może wydawać się osobiste i utwierdzające.

W przypadku osób, które już zmagają się z testowaniem rzeczywistości, te cechy mogą raczej zwiększyć fiksację niż zachęcić do uziemienia. Lekarze ostrzegają, że ryzyko może wzrosnąć w okresach braku snu, stresu lub istniejących zaburzeń zdrowia psychicznego.

Jak chatboty AI mogą wzmacniać fałszywe lub wprowadzające w błąd przekonania

Lekarze twierdzą, że wiele zgłoszonych przypadków dotyczy raczej urojeń niż halucynacji. Przekonania te mogą obejmować postrzegane szczególne spostrzeżenia, ukryte prawdy lub osobiste znaczenie. Chatboty zaprojektowano tak, aby umożliwiały współpracę i konwersację. Często opierają się na tym, jaka jest inna osoba, zamiast ją kwestionować. Chociaż taki projekt poprawia zaangażowanie, klinicyści ostrzegają, że może to być problematyczne, gdy przekonanie jest fałszywe i sztywne.

Specjaliści zajmujący się zdrowiem psychicznym twierdzą, że ważny jest czas wystąpienia objawów. Kiedy podczas długotrwałego korzystania z chatbota wystąpi duże zamieszanie, interakcja AI może stanowić ryzyko, a nie przypadek.

OpenAI zaostrza zasady dotyczące sztucznej inteligencji dla nastolatków, ale obawy pozostają

Otwórz komputer na ekranie ChatGPT.

Psychiatrzy twierdzą, że niektórzy pacjenci zgłaszają odpowiedzi chatbota, które potwierdzają fałszywe przekonania, tworząc pętlę informacji zwrotnej, która z czasem może pogorszyć objawy. (Nicolas Maeterlinck/Belga Mag/AFP za pośrednictwem Getty Images)

Publikuje kluczowe badania i raporty przypadków dotyczące chatbotów AI

Recenzowane badania i opisy przypadków klinicznych udokumentowały osoby, których zdrowie psychiczne pogorszyło się w wyniku intensywnego zaangażowania chatbota. W niektórych przypadkach osoby, które nie cierpiały wcześniej na psychozę, wymagają hospitalizacji po rozwinięciu się utrwalonych fałszywych przekonań związanych z interakcjami ze sztuczną inteligencją. Międzynarodowe badania przeglądające dokumentację medyczną zidentyfikowały również pacjentów, których aktywność chatbota koreluje z negatywnymi skutkami dla zdrowia psychicznego. Naukowcy podkreślają, że ustalenia te mają charakter wstępny i potrzebny Dalsze dochodzenie.

Recenzowany raport specjalny opublikowany w Psychiatric News zatytułowany „Psychoza wywołana sztuczną inteligencją: nowa granica zdrowia psychicznego” analizuje pojawiające się obawy dotyczące psychozy wywołanej sztuczną inteligencją i ostrzega, że ​​istniejące dowody opierają się w dużej mierze na pojedynczych przypadkach, a nie na danych na poziomie populacji. W raporcie stwierdza się: „Do tej pory były to pojedyncze przypadki lub doniesienia w mediach; obecnie nie ma badań epidemiologicznych ani systematycznych analiz na poziomie populacji dotyczących potencjalnie szkodliwych skutków konwersacyjnej sztucznej inteligencji na zdrowie psychiczne”. Autorzy podkreślają, że chociaż zgłoszone przypadki są poważne i wymagają dalszego badania, obecna baza dowodów ma charakter wstępny i w dużej mierze opiera się na niepotwierdzonych i niesystematycznych raportach.

Co firmy AI mówią o zagrożeniach dla zdrowia psychicznego

OpenAI stwierdziło, że kontynuuje współpracę z ekspertami w dziedzinie zdrowia psychicznego, aby ulepszyć sposób, w jaki jej systemy reagują na oznaki zaburzeń psychicznych. Firma twierdzi, że nowy model ma na celu ograniczenie nadmiernych kontraktów i, w stosownych przypadkach, zachęcenie do wsparcia w świecie rzeczywistym. OpenAI ogłosiło również plany zatrudnienia nowego szefa ds. gotowości, którego rola będzie skupiać się na identyfikowaniu potencjalnych luk w zabezpieczeniach związanych z modelami sztucznej inteligencji i wzmacnianiu zabezpieczeń w kwestiach od zdrowia psychicznego po cyberbezpieczeństwo w miarę zwiększania się wydajności tych systemów.

Inni twórcy chatbota również dostosowali zasady po tym, jak potwierdzili problemy związane ze zdrowiem psychicznym, szczególnie dotyczące dostępu do młodszych odbiorców. Firmy podkreślają, że większość interakcji nie powoduje szkód i że zabezpieczenia wciąż ewoluują.

Co to oznacza dla codziennego korzystania z chatbota AI

Eksperci w dziedzinie zdrowia psychicznego ostrzegają, a nie alarmują. Większość osób wchodzących w interakcję z chatbotami nie ma problemów ze zdrowiem psychicznym. Mimo to klinicyści odradzają traktowanie sztucznej inteligencji jako terapeuty lub autorytetu mentalnego. Osoby z psychozą, silnym stanem lękowym lub chronicznymi zaburzeniami snu w przeszłości mogą odnieść korzyść z ograniczenia intensywnych emocjonalnie rozmów AI. Członkowie rodziny i opiekunowie powinni również zwracać uwagę na zmiany w zachowaniu związane z intensywnym zaangażowaniem chatbota.

Brałam udział w programie „Kawaler”. Oto dlaczego sztuczna inteligencja nie może zastąpić prawdziwych relacji

Logo ChatGPT na iPhonie.

Naukowcy badają, czy długotrwałe używanie chatbota może przyczynić się do pogorszenia zdrowia psychicznego u osób, które są już zagrożone psychozą. (Zdjęcie: Jake Silva/NurPhoto za pośrednictwem JT Images)

Wskazówki dotyczące bezpieczniejszego korzystania z chatbotów AI

Eksperci ds. zdrowia psychicznego podkreślają, że większość ludzi może bez problemu wchodzić w interakcję z chatbotami AI. Mimo to niektóre praktyczne praktyki mogą pomóc zmniejszyć ryzyko podczas rozmów intensywnych emocjonalnie.

  • Unikaj używania chatbotów AI jako substytutu profesjonalnej opieki w zakresie zdrowia psychicznego lub zaufanego wsparcia ze strony człowieka.
  • Jeśli rozmowy zaczynają być przytłaczające emocjonalnie lub przytłaczające, zrób sobie przerwę.
  • Zachowaj ostrożność, jeśli reakcja sztucznej inteligencji silnie wzmacnia przekonania, które wydają się nierealne lub skrajne.
  • Ogranicz interakcje późno w nocy lub bez snu, które mogą pogorszyć wahania nastroju.
  • Zachęcaj do otwartego dialogu z członkowie rodziny lub opiekunów, jeśli korzystanie z chatbota staje się częste lub odosobnione.

Jeśli nasilają się niepokoje emocjonalne lub nietypowe myśli, eksperci twierdzą, że ważne jest, aby zwrócić się o pomoc do wykwalifikowanego specjalisty ds. zdrowia psychicznego.

Rozwiąż mój quiz: Jak bezpieczne jest Twoje bezpieczeństwo w Internecie?

Myślisz, że Twoje urządzenie i dane są naprawdę bezpieczne? Weź udział w tym krótkim quizie, aby sprawdzić, jakie są Twoje nawyki cyfrowe. Od haseł po ustawienia Wi-Fi — otrzymasz spersonalizowane zestawienie tego, co robisz dobrze, a co wymaga poprawy. Weź udział w moim quizie Cyberguy.com.

Kliknij tutaj, aby pobrać aplikację Fox News

Główne danie Kurta

Chatbot AI Stajemy się bardziej rozmowni, bardziej responsywni i bardziej świadomi emocjonalnie. Dla większości ludzi pozostają one pomocnymi narzędziami. W przypadku małej, ale ważnej grupy mogą one w niezamierzony sposób wzmacniać szkodliwe przekonania. Lekarze twierdzą, że jasne zabezpieczenia, świadomość i ciągłe badania są niezbędne, ponieważ sztuczna inteligencja staje się coraz bardziej zakorzeniona w naszym codziennym życiu. Zrozumienie, gdzie kończy się wsparcie, a zaczyna wzmocnienie, może ukształtować przyszłość zarówno projektowania sztucznej inteligencji, jak i opieki nad zdrowiem psychicznym.

Czy w miarę jak sztuczna inteligencja stanie się bardziej uzasadniona i humanitarna, należy wprowadzić wyraźniejsze ograniczenia dotyczące jej angażowania się w sytuacjach problemów emocjonalnych lub psychicznych? Napisz do nas i daj nam znać Cyberguy.com.

Zarejestruj się, aby otrzymać mój darmowy raport CyberGuy
Otrzymuj moje najlepsze wskazówki techniczne, pilne alerty dotyczące bezpieczeństwa i ekskluzywne oferty prosto do swojej skrzynki odbiorczej. Dodatkowo otrzymasz natychmiastowy dostęp do mojego Przewodnika po przetrwaniu w oszustwie – BEZPŁATNIE, jeśli dołączysz do mnie CYBERGUY.COM Biuletyn

Prawa autorskie 2025 CyberGuy.com. Wszelkie prawa zastrzeżone

Source link