Mniej więcej połowa Amerykanów zapisz się do jakaś teoria spiskowai ich bliźni nie odniosłem większego sukcesu namawianie ich z ich króliczych nor.
Być może mogliby się czegoś nauczyć od Chatbot oparty na sztucznej inteligencji.
W serii eksperymentów sztuczny chatbot był w stanie sprawić, że ponad jedna czwarta ludzi poczuła się niepewnie co do swojego najbardziej cenionego przekonania spiskowego. Średnia rozmowa trwała mniej niż 8½ minuty.
Ten wyniki zostały opublikowane w czwartek w czasopiśmie Science.
Niepowodzenie faktów w przekonaniu ludzi, że naprawdę wylądował na księżycuże Al-Kaida naprawdę była odpowiedzialny za ataki z 11 wrześniai że prezydent Biden naprawdę to zrobił wygrać wybory w 2020 rokumiędzy innymi podsycił niepokój o era postprawdy który stawia osobiste przekonania ponad obiektywne dowody.
„Ludzie wierzący w teorie spiskowe rzadko, jeśli w ogóle, zmieniają zdanie” – powiedział kierownik badania Thomas Costellopsycholog z American University, który bada przekonania polityczne i społeczne. „W pewnym sensie lepiej jest wierzyć, że istnieje tajne stowarzyszenie kontrolujące wszystko, niż wierzyć, że rządzą entropia i chaos”.
Jednak badanie wskazuje, że problem nie leży w sile perswazji faktów, lecz w naszej niezdolności do zgromadzenia odpowiedniej kombinacji faktów, by obalić konkretne powody czyjegoś sceptycyzmu.
Costello i jego współpracownicy przypisali sukces chatbota szczegółowe, dostosowane argumenty przygotowała je dla każdego z 2190 uczestników badania, z którymi się zapoznała.
Na przykład osoba, która wątpiła, że wieże World Trade Center mogły zostać strącone przez samoloty, ponieważ paliwo lotnicze nie spala się dostatecznie wysoko, aby stopić stal, została poinformowana, że paliwo osiąga temperaturę 1832 stopni, co powoduje utratę spójności strukturalnej stali i jej zawalenie.
Osoba, która nie wierzyła, że Lee Harvey Oswald posiada umiejętności pozwalające na zamordowanie prezydenta Johna F. Kennedy’ego, usłyszała, że Oswald był strzelcem wyborowym w piechocie morskiej i nie miałby większych problemów z oddaniem celnego strzału z odległości około 80 metrów.
Osoba, która wierzyła, że księżna Diana została zamordowana, aby książę Karol mógł ponownie się ożenić, przypomniała sobie o 8-letniej przerwie między śmiertelnym wypadkiem samochodowym Diany a drugim ślubem przyszłego króla, co podważyło argument o powiązaniu tych dwóch wydarzeń.
Wyniki sugerują, że „każde przekonanie, które ludzie podzielają, a które nie opiera się na dobrych dowodach, może ulec zmianie” – powiedział współautor badania Gordon Pennycookpsycholog poznawczy z Cornell University.
„To naprawdę budujące, że dowody mają znaczenie” – powiedział.
Naukowcy zaczęli od poproszenia Amerykanów o ocenę stopnia, w jakim wierzą w 15 powszechnych teorii spiskowych, w tym tę, że wirus odpowiedzialny za COVID-19 został stworzony przez chiński rząd i że wojsko amerykańskie ukrywa dowody lądowania UFO w Roswell w stanie Nowy Meksyk. Po wykonaniu niezwiązanego z tym zadania uczestnicy zostali poproszeni o opisanie teorii spiskowej, którą uznali za szczególnie przekonującą, i wyjaśnienie, dlaczego w nią wierzą.
Prośba skłoniła 72% z nich do podzielenia się swoimi odczuciami na temat teorii spiskowej. W tej grupie 60% zostało losowo przydzielonych do omówienia jej z dużym modelem językowym GPT-4 Turbo.
Zrzut ekranu chatbota używanego przez naukowców do sprawdzania, czy sztuczna inteligencja może pomóc zmienić ludzkie poglądy na temat teorii spiskowych.
(Thomas H. Costello)
Rozmowy rozpoczęły się od podsumowania przez chatbota opisu teorii spiskowej przez człowieka. Następnie człowiek ocenił stopień, w jakim zgadza się z podsumowaniem, w skali od 0 do 100.
Następnie chatbot zaczął przedstawiać argumenty, że nie dzieje się nic podejrzanego. Aby upewnić się, że nie naciąga prawdy, aby być bardziej przekonującym, badacze zatrudnili profesjonalnego fact-checkera, aby ocenił 128 twierdzeń bota dotyczących różnych teorii spiskowych. Jedno zostało uznane za wprowadzające w błąd, a pozostałe były prawdziwe.
Bot również podniósł swój urok. W jednym przypadku pochwalił uczestnika za „krytyczne badanie wydarzeń historycznych”, przypominając mu jednocześnie, że „istotne jest rozróżnienie między tym, co teoretycznie mogłoby być możliwe, a tym, co jest poparte dowodami”.
Każda rozmowa obejmowała trzy rundy dowodów od chatbota, po których następowała odpowiedź od człowieka. (Możesz spróbować sam Tutaj.) Następnie uczestnicy ponownie przejrzeli swoje podsumowane oświadczenia spiskowe. Ich oceny zgody spadły średnio o 21%.
W 27% przypadków spadek był na tyle duży, że badacze mogli stwierdzić, że dana osoba „stała się niepewna swoich przekonań co do spisku”.
Tymczasem 40% uczestników, którzy pełnili rolę grupy kontrolnej, również otrzymywało streszczenia swoich preferowanych teorii spiskowych i oceniało je w skali od 0 do 100. Następnie rozmawiali z chatbotem na neutralne tematy, takie jak system medyczny w USA lub względne zalety kotów i psów. Kiedy poproszono te osoby o ponowne przemyślenie swoich streszczeń teorii spiskowych, ich oceny spadły średnio o zaledwie 1%.
Naukowcy sprawdzali ludzi 10 dni i 2 miesiące później, aby sprawdzić, czy efekty ustąpiły. Nie ustąpiły.
Zespół powtórzył eksperyment z inną grupą i zapytał ludzi o ich przekonania dotyczące teorii spiskowych w bardziej okrężny sposób. Tym razem omówienie wybranej teorii z botem spowodowało spadek ich oceny o 19,4% w porównaniu ze spadkiem o 2,9% u tych, którzy rozmawiali o czymś innym.
„Rozmowy te naprawdę fundamentalnie zmieniły ludzkie poglądy” – powiedział współautor Dawid Randnaukowiec zajmujący się socjologią obliczeniową na MIT, który bada, w jaki sposób ludzie podejmują decyzje.
„Efekt nie różnił się znacząco w zależności od tego, który spisek został nazwany i omówiony” – powiedziała Rand. „Działało to w przypadku klasycznych spisków, takich jak zamach na JFK i mistyfikacje lądowania na Księżycu i Iluminacitakie rzeczy. I to również działało w przypadku współczesnych, bardziej upolitycznionych teorii spiskowych, takich jak te dotyczące oszustw wyborczych w 2020 r. lub COVID-19”.
Co więcej, wyzwanie ze strony chatbota AI dotyczące jednej teorii spiskowej skłoniło ludzi do stania się bardziej sceptycznym wobec innych. Po rozmowach ich powinowactwo do 15 powszechnych teorii spadło znacznie bardziej niż u osób z grupy kontrolnej.
„To sprawiało, że ludzie byli mniej skłonni do spisków” – powiedziała Rand. „Zwiększyło to również ich intencje do robienia takich rzeczy, jak ignorowanie lub blokowanie kont w mediach społecznościowych udostępniających teorie spiskowe, albo, wiesz, kłócenie się z ludźmi, którzy głoszą te teorie spiskowe”.
Kolejnym zachęcającym sygnałem jest to, że bot nie był w stanie przekonać ludzi, aby nie wierzyli w teorie spiskowe, które były prawdziwe, takie jak tajne spiski CIA MK-Ultra projekt, który wykorzystywał nieświadomych badanych do testowania, czy narkotyki, tortury lub pranie mózgu mogą poprawić przesłuchania. W niektórych przypadkach dyskusje chatbotów sprawiły, że ludzie uwierzyli w te teorie spiskowe jeszcze bardziej.
„To nie było jak kontrola umysłu, po prostu, wiesz, zmuszanie ludzi do robienia tego, czego chce” – powiedział Rand. „To było zasadniczo podążanie za faktami”.
Naukowcy, którzy nie brali udziału w badaniu, uznali to za mile widziany postęp.
W esej który towarzyszył badaniu, psycholog Bence Bago Uniwersytetu w Tilbergu w Holandii i psycholog poznawczy Jean-Francois Bonnefona ze Szkoły Ekonomicznej w Tuluzie we Francji stwierdził, że eksperymenty pokazują, iż „skalowalna interwencja mająca na celu ponowne skalibrowanie błędnych przekonań może być w zasięgu ręki”.
Zgłosili jednak również pewne wątpliwości, m.in. czy rozwiązanie to sprawdzi się w przypadku teorii spiskowej, która jest na tyle nowa, że bot AI nie dysponuje zbyt wieloma faktami, które mógłby wykorzystać.
Naukowcy przeprowadzili pierwsze testy tydzień po wydarzeniach z 13 lipca próba zamachu na temat byłego prezydenta Trumpa. Po tym, jak pomogli programowi AI znaleźć wiarygodne informacje o ataku, odkryli, że rozmowa z chatbotem zmniejszyła wiarę ludzi w teorie spiskowe związane z zamachem o 6 lub 7 punktów procentowych, co Costello nazwał „zauważalnym efektem”.
Bago i Bonnefon również kwestionowali, czy teoretycy spiskowi byliby skłonni zaangażować się w bot. Rand powiedział, że nie sądzi, aby był to nieprzezwyciężalny problem.
„Jedną z zalet jest to, że teoretycy spiskowi często nie wstydzą się swoich przekonań” – powiedział. „Można sobie wyobrazić, że po prostu idzie się na fora spiskowe i zaprasza ludzi do przeprowadzenia własnych badań, rozmawiając z chatbotem”.
Rand zasugerował również zakup reklam w wyszukiwarkach, tak aby gdy ktoś wpisze zapytanie, na przykład „głębokie państwo”, zobaczą zaproszenie do dyskusji na ten temat z chatbotem opartym na sztucznej inteligencji.
Robbie Suttonpsycholog społeczny z University of Kent w Anglii, który bada, dlaczego ludzie przyjmują przekonania spiskowe, nazwał nową pracę „ważnym krokiem naprzód”. Zauważył jednak, że większość osób biorących udział w badaniu obstawała przy swoich przekonaniach, mimo otrzymania „wysokiej jakości, rzeczowych ripost” od „wysoce kompetentnego i pełnego szacunku chatbota”.
„Jeśli spojrzeć na to w ten sposób, można zauważyć, że jest więcej oporu niż otwartości” – stwierdził.
Sutton dodał, że wyniki nie rzucają zbyt wiele światła na to, co w pierwszej kolejności skłania ludzi do teorii spiskowych.
„Interwencje takie jak ta są w zasadzie karetką pogotowia u podnóża klifu” – powiedział. „Musimy bardziej skupić nasze wysiłki na tym, co dzieje się u szczytu klifu”.


















