Według krajowego organu nadzoru ilość generowanej przez sztuczną inteligencję pornografii dziecięcej znajdowanej w Internecie rośnie w „mrożącym krew w żyłach” tempie.

Fundacja Internet Watch zajmuje się pornografią dziecięcą w Internecie, usuwając co roku setki tysięcy obrazów.

Teraz, jak mówi sztuczna inteligencja znacznie utrudnia pracę.

„To naprawdę przerażające, ponieważ wydaje mi się, że znaleźliśmy się w punkcie zwrotnym” – powiedział „Jeff”, starszy analityk w Internet Watch Foundation (IWF), który w pracy używa fałszywego nazwiska, aby chronić swoją tożsamość.

W ciągu ostatnich sześciu miesięcy Jeff i jego zespół mieli do czynienia z większą liczbą treści związanych ze sztuczną inteligencją niż w roku poprzednim i odnotowali 6% wzrost ilości treści opartych na sztucznej inteligencji.

Wiele obrazów AI przedstawiających krzywdzenie i wykorzystywanie dzieci jest niepokojąco realistycznych.

„Podczas gdy wcześniej bylibyśmy w stanie zdecydowanie stwierdzić, czym jest obraz sztucznej inteligencji, obecnie dochodzimy do punktu, w którym nawet przeszkolony analityk (…) miałby trudności z ustaleniem, czy jest on prawdziwy, czy nie” – Jeff powiedział Sky News .

Według IWF, aby uczynić pornografię sztuczną tak realistyczną, oprogramowanie jest szkolone na podstawie istniejących obrazów przedstawiających wykorzystywanie seksualne.

Fundacja Internet Watch zajmuje się materiałami przedstawiającymi wykorzystywanie seksualne dzieci w Internecie
Obraz:
Fundacja Internet Watch zajmuje się materiałami przedstawiającymi wykorzystywanie seksualne dzieci w Internecie

„Ludzie nie mogą mieć złudzeń” – powiedział Derek Ray-Hill, tymczasowy dyrektor naczelny IWF.

„Wygenerowane przez sztuczną inteligencję materiały przedstawiające wykorzystywanie seksualne dzieci wyrządzają straszliwą krzywdę nie tylko tym, którzy mogą je zobaczyć, ale także ofiarom, które wielokrotnie padają ofiarą przemocy za każdym razem, gdy obrazy i filmy przedstawiające ich wykorzystywanie są bezlitośnie wykorzystywane do wypaczonej przyjemności drapieżników w Internecie”.

IWF ostrzega, że ​​prawie cała treść nie została ukryta w ciemnej sieci, ale została znaleziona w publicznie dostępnych obszarach Internetu.

„Ta nowa technologia zmienia sposób produkcji materiałów przedstawiających wykorzystywanie seksualne dzieci” – stwierdziła profesor Clare McGlynn, ekspert prawny specjalizujący się w problematyce wykorzystywania i pornografii w Internecie na Uniwersytecie w Durham.

Przeczytaj więcej ze Sky News:
Gang sprzedawał fałszywe wino vintage po 12 500 funtów za butelkę
Budżet 2024: Co kanclerz mógłby ogłosić?

Burmistrz zakazuje sadzenia kaktusów w budynkach

Powiedziała Sky News, że teraz „łatwe i proste” jest tworzenie wygenerowanych przez sztuczną inteligencję obrazów przedstawiających wykorzystywanie seksualne dzieci, a następnie reklamowanie ich i udostępnianie w Internecie.

„Do tej pory łatwo było to zrobić, nie martwiąc się, że policja przyjdzie cię oskarżyć” – powiedziała.

W zeszłym roku zarzuty postawiono wielu pedofilom po stworzeniu dziecięcej pornografii opartej na sztucznej inteligencji, w tym Neilowi ​​Darlingtonowi, który wykorzystywał sztuczną inteligencję, próbując szantażować dziewczyny, aby wysyłały mu wulgarne zdjęcia.

Przeczytaj więcej: Zwiększono „łagodną” karę dla pedofila AI

Tworzenie wulgarnych zdjęć dzieci jest nielegalne, nawet jeśli są generowane przy użyciu sztucznej inteligencji, a analitycy IWF współpracują z policją i dostawcami technologii, aby usuwać i śledzić obrazy znalezione w Internecie.

Śledź Sky News na WhatsApp
Śledź Sky News na WhatsApp

Bądź na bieżąco z najświeższymi wiadomościami z Wielkiej Brytanii i całego świata, śledząc Sky News

Kliknij tutaj

Analitycy przesyłają adresy URL stron internetowych zawierających obrazy przedstawiające wykorzystywanie seksualne dzieci wygenerowane przez sztuczną inteligencję na listę, która jest udostępniana branży technologicznej, aby mogła blokować te witryny.

Obrazy AI otrzymują również unikalny kod, taki jak cyfrowy odcisk palca, dzięki czemu można je automatycznie śledzić, nawet jeśli zostaną usunięte i ponownie przesłane w inne miejsce.

Ponad połowa treści wygenerowanych przez sztuczną inteligencję, znalezionych przez IWF w ciągu ostatnich sześciu miesięcy, była hostowana na serwerach w Rosji i USA, a znaczna ich ilość została znaleziona także w Japonii i Holandii.

Source link

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj