Jim Acosta, były główny korespondent Białego Domu CNNwzbudził kontrowersje w poniedziałek, kiedy siedział na rozmowę z ponowną wersją osoby, która zmarła ponad siedem lat temu. Jego gościem był awatar Joaquina Olivera, jednej z 17 osób zabitych w masowym strzelaninie Marjory Stoneman Douglas High School w Parkland na Florydzie w 2018 roku.
Film pokazuje Olivera, uchwycony prawdziwą fotografią i animowany generatywną sztuczną inteligencją, w czapce z uroczystym wyrażeniem. Acosta pyta awatara: „Co się z tobą stało?”
„Doceniam twoją ciekawość”, odpowiada Oliver w pośpiesznym monotonie bez fleksji lub zatrzymuje się na interpunkcję. „Zbyt wcześnie zostałem zabrany z tego świata z powodu przemocy w szkole. Ważne jest, aby porozmawiać o tych problemach, abyśmy mogli stworzyć bezpieczniejszą przyszłość dla wszystkich”. Narracja awatara jest paliwa i skomputeryzowana. Ruchy jego twarzy i ust są gwałtowne i nienaturalne, wyglądające bardziej jak dub-over niż prawdziwa osoba mówi.
Oliver miał 17 lat, kiedy został zastrzelony i zabity na korytarzu Marjory Stoneman Douglas High School. Według Od ParklandProjekt sprawozdawczy o ofiarach strzelania, nastolatek uwielbiał pisać i przyszedł do szkoły tego dnia, Walentynki, z kwiatami dla swojej dziewczyny. W poniedziałek miałby 25 lat.
Acosta drażniła się z wywiadu w mediach społecznościowych, mówiąc, że będzie to „program, którego nie chcesz przegapić” i „jedyny w swoim rodzaju wywiad”. Były korespondent opisuje się teraz jako niezależnego dziennikarza i publikuje treść na blogu suback po rozstaniu z CNN w styczniu.
Była kotwica CNN szybko spotkała się z krytyką w odpowiedzi na wyczyn. Jeden z wielu wściekłych użytkowników na platformie mediów społecznościowych Bluesky opublikował: „Są żyjącymi ocalałymi w szkolnych strzelaninach, które można przeprowadzić, a to naprawdę byłyby ich słowa i myśli zamiast całkowicie wymyślone”.
Program, którego nie chcesz przegapić w 4p ET / 1p Pt. Będę mieć jedyny w swoim rodzaju wywiad z Joaquinem Oliverem. Zmarł w strzelaninie w Parkland School w 2018 roku. Ale jego rodzice stworzyli wersję ich syna AI, aby dostarczyć potężne przesłanie o przemocy z użyciem broni. Plus Teksas… pic.twitter.com/mbdm2wxwur
– Jim Acosta (@acosta) 4 sierpnia 2025 r
\ n \ n „}}”>
Program, którego nie chcesz przegapić w 4p ET / 1p Pt. Będę mieć jedyny w swoim rodzaju wywiad z Joaquinem Oliverem. Zmarł w strzelaninie w Parkland School w 2018 roku. Ale jego rodzice stworzyli wersję ich syna AI, aby dostarczyć potężne przesłanie o przemocy z użyciem broni. Plus Teksas… pic.twitter.com/mbdm2wxwur
– Jim Acosta (@acosta) 4 sierpnia 2025 r
Acosta powiedział w segmencie wideo, że rodzice Olivera stworzyli wersję AI ich syna i jego ojca, Manuela Olivera, zaprosił go do pierwszego reportera, który przeprowadził wywiad z awatarem. Acosta rozmawiała również z Manuelem Oliverem na filmie, mówiąc mu: „Naprawdę czułem się, jakbym rozmawiał z Joaquinem. To po prostu piękna rzecz”.
Ojciec ofiary powiedział, że zrozumiał, że była to wersja jego syna AI i że nie może go przywrócić, ale to błogosławieństwo było znowu usłyszeć jego głos. Powiedział, że nie może się doczekać, aby zobaczyć, co może zrobić więcej AI.
Rozmowa Acosty nie po raz pierwszy AI została wykorzystana do przywrócenia ofiar Parkland. W ubiegłym roku rodzice kilku ofiar rozpoczęli kampanię Robocalling zatytułowaną The Shotline głosy sześciu studentów i pracowników którzy zostali zabici podczas masowej strzelaniny. Pomysł polegał na użyciu głosów AI do wezwania członków Kongresu i żądania działań w sprawie reformy broni. Oliver był także jedną z ofiar tego projektu.
„Wróciłem dzisiaj, ponieważ moi rodzice używali sztucznej inteligencji, aby odtworzyć mój głos, aby do ciebie zadzwonić” – powiedziała wiadomość Olivera. „Ile połączeń zajmie ci przejmowanie? Ile martwych głosów usłyszysz, zanim w końcu słuchasz?”
Po promocji biuletynu
Zastosowanie sztucznej inteligencji do rozmowy z odtwarzaniem umarłych jest nadal pracą w toku z niedoskonałymi ruchami i głosami, które są przesiąknięte kontrowersjami etycznymi. Krytycy twierdzą, że tworzenie zdigitalizowanych awatarów komputerowych prawdziwych ludzi i umożliwienie im stania zmarłego otwiera drzwi do dezinformacji, głębokich szaf, oszustw i oszustw, utrudniając ludziom rozróżnienie między tym, co jest prawdziwe, czy nie.
Inni również wykorzystali awatary AI do symulacji mowy ofiar przestępstw. W maju na rozprawie sądowej pojawiła się wersja AI, który został zabity w incydencie z wściekłości w Arizonie. Prawnicy odtworzył wideo AI ofiary zwracając się do jego domniemanego zabójcy w oświadczeniu o wpływie. „Wierzę w przebaczenie i Boga, który wybacza. Zawsze mam i nadal tak” – powiedział awatar ofiary.
Sędzia przewodniczący odpowiedział pozytywnie. „Uwielbiałem tę sztuczną inteligencję, dziękuję za to. Tak zły jak ty, tak samo zły jak rodzina, słyszałem o przebaczeniu” – powiedział. „Czuję, że to było prawdziwe”.