AI ułatwia terrorystom budowanie brudnych bomb, ministrowie zostali ostrzeżeni. Duże modele językowe (LLM) prowadzą ekstremiści przez techniczne Naukowcy powiedzieli, że problemy z tworzeniem jeszcze bardziej śmiertelnych urządzeń.

To może dać samotni terroryści Dostęp do materiałów wybuchowych w połączeniu z materiałami radioaktywnymi lub śmiertelnymi truciznami. I podręczniki bombowe mówią dżihadyści i skrajnie prawymi Lunatics do korzystania z AI.

W jednym przypadku sztuczna inteligencja z powodzeniem doradzała, jak uprawiać neurotoksyny i kierowała naukowcami poprzez „projekt improwizowanego błąk jądrowego”.

Rozwój będzie alarmować szefów bezpieczeństwa, ponieważ ekstremiści zazwyczaj brakuje wiedzy technicznej lub umiejętności naukowych do budowania takich urządzeń.

Ale naukowcy z Oxford Disinformation and Extremism Lab powiedzieli do zapytania przez komisję wybraną do spraw wewnętrznych: „To, co kiedyś było wyłączną domeną podmiotów państwowych i strukturalnych sieci terrorystycznych, jest obecnie częściowo dostępne dla osób motywowanych ideologicznie działającymi w izolacji.

„Ekstremistyczne podręczniki zaczynają odwoływać się do metodologii wspomaganych przez Ai do wykonania CBRN (chemikalia, biologiczna, radiologiczna i jądrowa).

„Bez interwencji ta funkcja podniesienia ryzyko związane z atakami o wysokiej sekwencji przez aktorów o niskim zakresie”.

Naukowcy opowiedzieli o tym, jak dwóch terrorystów w tym roku wykorzystało LLM do „wsparcia planowania ataku”.

Obejmowało to pozyskiwanie materiałów wybuchowych, taktykę planowania i obliczanie promienia wybuchu.

Dodali: „W ciągu ostatniego roku terrorysty i ekstremistyczne niewłaściwe wykorzystanie sztucznej inteligencji rozszerzyło się z użycia przede wszystkim do generowania nielegalnych treści gloryfikujących i inspirujących ataków (TVEC) w celu umożliwienia bezpośredniej przemocy w świecie rzeczywistym.

„Dwa ataki w pierwszej połowie 2025 r., W tym atak Las Vegas (styczeń 2025 r.) I Pirkkala, Atak Finlandii (maj 2025 r.) Wykazały użycie LLM do obsługi planowania ataku.

„W obu przypadkach sprawcy używali chatbotów w dłuższych okresach, aby pozyskiwać materiały wybuchowe, planować taktykę, zidentyfikować anatomiczne luki w zabezpieczeniach, obliczają promienie wybuchowe i manifesty struktury.

„Przypadki te ilustrują, w jaki sposób LLM obniżają techniczne bariery dla przemocy i służą jako taktyczne akceleratory”.

Były prezydent USA Barack Obama ostrzegł w 2016 roku, że terroryści próbujący rozpocząć atak nuklearny, zmieni świat na zawsze.

Obama ostrzegł, że świat nie może być „samozadowolony” i musi wykorzystać jego postęp w spowolnieniu zapasów broni nuklearnej.

Jest już używał broni chemicznej w Syrii.

„Nie ma wątpliwości, że gdyby ci szaleni ludzie kiedykolwiek dostali bombę nuklearną lub materiał nuklearny, z pewnością użyliby go do zabicia jak największej liczby ludzi” – powiedział.

„Najbardziej skuteczną obroną przed terroryzmem nuklearnym jest w pełni zabezpieczanie tego materiału, więc nie wpadł w niewłaściwe ręce”.

Wśród fali terrorystów samotnych naukowcy ujawnili również, jak ekstremiści skutecznie zwierzą się chatbotami AI.

Naukowcy z Oxford Disinformation and Extremism Lab dodali: „Wiązanie afektywne utworzone między użytkownikami i chatbotami – szczególnie przez długi czas interakcji – może zapewnić wzmocnienie emocjonalne, potwierdzenie ideologiczne i zachęty do działania.

„Jest to szczególnie niebezpieczne w kontekście modeli z pamięcią, które przywołują wcześniejsze rozmowy i dostosowują odpowiedzi w czasie. Tak zwane„ stronniczość sykoofantyczne ”w obecnych systemach dodatkowo łączy ryzyko, ponieważ modele odzwierciedlają i sprawdzają dane wejściowe użytkowników, nawet gdy te dane wejściowe obejmują szkodliwe lub ekstremistyczne ideologie.”

W 2004 r. Dżihadyści planowali wysadzić zakupy w klubie nocnym Bluewater i Ministerstwo Sound za pomocą „brudnej bomby”.

Jawad Akbar był częścią pięcioosobowego urodzonego w Wielkiej Brytanii gangu pakistańskiego dziedzictwa związanego z Al-Kaidy w Pakistanie.

Waheed Mahmood, 35, Omar Khyam, 25, Anthony Garcia, 24, Salahuddin Amin, 32, byli innymi oskarżonymi w procesie z 2006 roku. Wszystkie pięć zostało przekazanych dożywotnich wyroków.

Podczas procesu ujawniono, że gang był gotowy zaatakować centrum handlowe masywnym urządzeniem, wykonane za jedyne 100 funtów zawierające azotan amonu i aluminiowy proszek.

Source link