AI ułatwia terrorystom budowanie brudnych bomb, ministrowie zostali ostrzeżeni. Duże modele językowe (LLM) prowadzą ekstremiści przez techniczne Naukowcy powiedzieli, że problemy z tworzeniem jeszcze bardziej śmiertelnych urządzeń.
To może dać samotni terroryści Dostęp do materiałów wybuchowych w połączeniu z materiałami radioaktywnymi lub śmiertelnymi truciznami. I podręczniki bombowe mówią dżihadyści i skrajnie prawymi Lunatics do korzystania z AI.
W jednym przypadku sztuczna inteligencja z powodzeniem doradzała, jak uprawiać neurotoksyny i kierowała naukowcami poprzez „projekt improwizowanego błąk jądrowego”.
Rozwój będzie alarmować szefów bezpieczeństwa, ponieważ ekstremiści zazwyczaj brakuje wiedzy technicznej lub umiejętności naukowych do budowania takich urządzeń.
Ale naukowcy z Oxford Disinformation and Extremism Lab powiedzieli do zapytania przez komisję wybraną do spraw wewnętrznych: „To, co kiedyś było wyłączną domeną podmiotów państwowych i strukturalnych sieci terrorystycznych, jest obecnie częściowo dostępne dla osób motywowanych ideologicznie działającymi w izolacji.
„Ekstremistyczne podręczniki zaczynają odwoływać się do metodologii wspomaganych przez Ai do wykonania CBRN (chemikalia, biologiczna, radiologiczna i jądrowa).
„Bez interwencji ta funkcja podniesienia ryzyko związane z atakami o wysokiej sekwencji przez aktorów o niskim zakresie”.
Naukowcy opowiedzieli o tym, jak dwóch terrorystów w tym roku wykorzystało LLM do „wsparcia planowania ataku”.
Obejmowało to pozyskiwanie materiałów wybuchowych, taktykę planowania i obliczanie promienia wybuchu.
Dodali: „W ciągu ostatniego roku terrorysty i ekstremistyczne niewłaściwe wykorzystanie sztucznej inteligencji rozszerzyło się z użycia przede wszystkim do generowania nielegalnych treści gloryfikujących i inspirujących ataków (TVEC) w celu umożliwienia bezpośredniej przemocy w świecie rzeczywistym.
„Dwa ataki w pierwszej połowie 2025 r., W tym atak Las Vegas (styczeń 2025 r.) I Pirkkala, Atak Finlandii (maj 2025 r.) Wykazały użycie LLM do obsługi planowania ataku.
„W obu przypadkach sprawcy używali chatbotów w dłuższych okresach, aby pozyskiwać materiały wybuchowe, planować taktykę, zidentyfikować anatomiczne luki w zabezpieczeniach, obliczają promienie wybuchowe i manifesty struktury.
„Przypadki te ilustrują, w jaki sposób LLM obniżają techniczne bariery dla przemocy i służą jako taktyczne akceleratory”.
Były prezydent USA Barack Obama ostrzegł w 2016 roku, że terroryści próbujący rozpocząć atak nuklearny, zmieni świat na zawsze.
Obama ostrzegł, że świat nie może być „samozadowolony” i musi wykorzystać jego postęp w spowolnieniu zapasów broni nuklearnej.
Jest już używał broni chemicznej w Syrii.
„Nie ma wątpliwości, że gdyby ci szaleni ludzie kiedykolwiek dostali bombę nuklearną lub materiał nuklearny, z pewnością użyliby go do zabicia jak największej liczby ludzi” – powiedział.
„Najbardziej skuteczną obroną przed terroryzmem nuklearnym jest w pełni zabezpieczanie tego materiału, więc nie wpadł w niewłaściwe ręce”.
Wśród fali terrorystów samotnych naukowcy ujawnili również, jak ekstremiści skutecznie zwierzą się chatbotami AI.
Naukowcy z Oxford Disinformation and Extremism Lab dodali: „Wiązanie afektywne utworzone między użytkownikami i chatbotami – szczególnie przez długi czas interakcji – może zapewnić wzmocnienie emocjonalne, potwierdzenie ideologiczne i zachęty do działania.
„Jest to szczególnie niebezpieczne w kontekście modeli z pamięcią, które przywołują wcześniejsze rozmowy i dostosowują odpowiedzi w czasie. Tak zwane„ stronniczość sykoofantyczne ”w obecnych systemach dodatkowo łączy ryzyko, ponieważ modele odzwierciedlają i sprawdzają dane wejściowe użytkowników, nawet gdy te dane wejściowe obejmują szkodliwe lub ekstremistyczne ideologie.”
W 2004 r. Dżihadyści planowali wysadzić zakupy w klubie nocnym Bluewater i Ministerstwo Sound za pomocą „brudnej bomby”.
Jawad Akbar był częścią pięcioosobowego urodzonego w Wielkiej Brytanii gangu pakistańskiego dziedzictwa związanego z Al-Kaidy w Pakistanie.
Waheed Mahmood, 35, Omar Khyam, 25, Anthony Garcia, 24, Salahuddin Amin, 32, byli innymi oskarżonymi w procesie z 2006 roku. Wszystkie pięć zostało przekazanych dożywotnich wyroków.
Podczas procesu ujawniono, że gang był gotowy zaatakować centrum handlowe masywnym urządzeniem, wykonane za jedyne 100 funtów zawierające azotan amonu i aluminiowy proszek.