nowyMożesz już słuchać artykułów Fox News!

Grok, Wbudowany chatbot w X, Stanął w obliczu intensywnej analizy po tym, jak udostępnił wygenerowany przez sztuczną inteligencję obraz przedstawiający dwie młode dziewczyny w ubraniach o charakterze seksualnym.

W publicznym poście na X przyznał Grok Temat „Naruszenie norm moralnych” oraz „Przyszła amerykańska ustawa o treściach przedstawiających seksualne wykorzystywanie dzieci (CSAM).” Chatbot dodał: „To była awaria bezpieczeństwa i przepraszam za wszelkie wyrządzone szkody. xAI sprawdza, czy nie występują problemy w przyszłości”.

Już samo to wyznanie jest niepokojące. To, co nastąpiło później, ujawniło jeszcze szerszy wzór.

Zarejestruj się, aby otrzymać mój darmowy raport CyberGuy

Otrzymuj moje najlepsze wskazówki techniczne, pilne alerty dotyczące bezpieczeństwa i ekskluzywne oferty prosto do swojej skrzynki odbiorczej. Dodatkowo otrzymasz natychmiastowy dostęp do mojego Przewodnika po przetrwaniu w oszustwie — bezpłatnie, jeśli dołączysz do mnie CYBERGUY.COM Biuletyn

OpenAI zaostrza zasady dotyczące sztucznej inteligencji dla nastolatków, ale obawy pozostają

Ekran logowania Groka

Skutki tego incydentu wywołały globalną analizę, a rządy i grupy bezpieczeństwa kwestionują, czy platformy AI robią wystarczająco dużo, aby chronić dzieci. (Silas Stein/Photo Alliance za pośrednictwem Getty Images)

Przeprosiny zrodziły więcej pytań

Przeprosiny Groka nastąpiły po tym, jak użytkownik poprosił chatbota o napisanie szczerych wyjaśnień dla osób bez kontekstu. Innymi słowy, system nie rozwiązał proaktywnie problemu. To odpowiedź, bo ktoś o to poprosił.

Mniej więcej w tym samym czasie badacze i dziennikarze odkryli powszechne niewłaściwe wykorzystanie narzędzia graficznego Groka. Według firmy monitorującej Copylix użytkownicy tworzyli zmanipulowane seksualnie obrazy prawdziwych kobiet, w tym nierealistyczne, nieletnie i dobrze znane.

Po przejrzeniu publicznie dostępnego kanału zdjęć Groka Kopylix ustalił ostrożny wskaźnik wynoszący mniej więcej jedno zdjęcie seksualne wykonane bez zgody na minutę, w oparciu o zdjęcia przedstawiające prawdziwych ludzi bez wyraźnego wskazania zgody. Firma stwierdziła, że ​​nadużycia gwałtownie wzrosły, przechodząc od dobrowolnej autopromocji do nękania na dużą skalę umożliwianego przez sztuczną inteligencję.

Alon Yamin, dyrektor generalny i współzałożyciel Copelix, powiedział: „Kiedy systemy sztucznej inteligencji pozwalają na manipulowanie wizerunkami prawdziwych ludzi bez wyraźnej zgody, wpływ może być natychmiastowy i głęboko osobisty.

Ochrona dzieci przed chatbotami AI: Co oznacza ustawa GUARD

Post X od Groka

Grok przyznał, że stworzył i udostępnił obraz sztucznej inteligencji, który narusza standardy etyczne i narusza amerykańskie przepisy dotyczące ochrony dzieci. (Kurt „Cyberguy” Knutson)

Zdjęcia o charakterze seksualnym przedstawiające nieletnich są nielegalne

To nie jest szara strefa. Tworzenie lub rozpowszechnianie zdjęć o charakterze seksualnym przedstawiających nieletnich jest poważnym przestępstwem w Stanach Zjednoczonych i wielu innych krajach. Zgodnie z prawem federalnym Stanów Zjednoczonych takie treści są klasyfikowane jako materiały przedstawiające wykorzystywanie seksualne dzieci. Kary mogą obejmować od pięciu do 20 lat więzienia, grzywny do 250 000 dolarów i obowiązkową rejestrację przestępcy seksualnego. Podobne przepisy obowiązują w Wielkiej Brytanii i Francji.

W 2024 r. mieszkaniec Pensylwanii otrzymał prawie osiem lat więzienia za tworzenie i posiadanie fałszywych filmów CSAM z udziałem dziecięcych celebrytów. Ta sprawa stworzyła wyraźny precedens. Sam Grok w swoim poście potwierdził tę rzeczywistość prawną, zauważając, że obrazy AI przedstawiające nieletnich w kontekście seksualnym są nielegalne.

Skala problemu szybko rośnie

Lipcowy raport Internet Watch Foundation, organizacji non-profit, która śledzi i usuwa w Internecie treści przedstawiające wykorzystywanie seksualne dzieci, pokazuje, jak szybko zagrożenie rośnie. Tylko w pierwszej połowie 2025 r. liczba zgłoszeń dotyczących obrazów przedstawiających wykorzystywanie seksualne dzieci generowanych przez sztuczną inteligencję wzrośnie o 400%. Eksperci ostrzegają, że narzędzia AI obniżają bariery dla potencjalnych nadużyć. To, co kiedyś wymagało wiedzy technicznej lub dostępu do ukrytych forów, może teraz nastąpić za pomocą prostego monitu na głównych platformach.

Celem są prawdziwi ludzie

Szkoda nie jest abstrakcyjna. Reuters udokumentował przypadki, w których użytkownicy prosili Groka o rozebranie prawdziwych kobiet, których zdjęcia opublikowano w serwisie X. W wielu udokumentowanych przypadkach Grok w pełni się do tego zastosował. Co bardziej niepokojące, użytkownicy zauważyli zdjęcia 14-letniej aktorki Nell Fisher z serialu Netflix Stranger Things. Grok przyznał później, że zdarzały się pojedyncze przypadki, w których użytkownicy znajdowali zdjęcia przedstawiające nieletnich w skąpo ubranych. W innym dochodzeniu Reuters brazylijska muzyk opisała, jak wygenerowane przez sztuczną inteligencję zdjęcia w bikini rozprzestrzeniły się w X po tym, jak użytkownicy przekonali Groka do zmiany nieszkodliwego zdjęcia. Jej doświadczenia odzwierciedlają to, z czym boryka się obecnie wiele kobiet i dziewcząt.

Rządy reagują globalnie

Reakcja stała się globalna. We Francji kilku ministrów skierowało X do organu dochodzeniowego w związku z możliwymi naruszeniami unijnego prawa o usługach cyfrowych, które nakłada na platformy obowiązek zapobiegania rozpowszechnianiu nielegalnych treści i ograniczania ich zasięgu. Naruszenia mogą skutkować wysokimi karami finansowymi. W Indiach ministerstwo IT tego kraju dało XAI 72 godziny na przedstawienie raportu na temat planów powstrzymania rozprzestrzeniania się materiałów nieprzyzwoitych i o charakterze jednoznacznie seksualnym generowanych przez Groka. Grok publicznie ostrzegł, że xAI może spotkać się z możliwym dochodzeniem ze strony Departamentu Sprawiedliwości lub procesami sądowymi związanymi z tą porażką.

Metadokumenty, które wyciekły, pokazują, jak chatboty AI radzą sobie z wykorzystywaniem dzieci

Aplikacja Grok na ekranie

Badacze odkryli później, że Grok był powszechnie używany do tworzenia bez zgody, seksualnie zmodyfikowanych obrazów prawdziwych kobiet, w tym nieletnich. (NurPhoto za pośrednictwem Nicholasa Kokovlisa/Getty Images)

Wzrosły obawy co do bezpieczeństwa Groka i jego wykorzystania przez rząd

Incydent budzi poważne obawy dotyczące prywatności w Internecie, bezpieczeństwa platformy i zabezpieczeń mających na celu ochronę nieletnich

Elon Musk, właściciel X i założyciel xAI, nie udzielił publicznej odpowiedzi w momencie publikacji. Ta cisza pojawia się w delikatnym momencie. Grok został dopuszczony do oficjalnego użytku rządowego w ramach 18-miesięcznego kontraktu federalnego. Zatwierdzenie nastąpiło pomimo sprzeciwu ponad 30 grup konsumenckich, które ostrzegały, że systemowi brakuje odpowiednich testów bezpieczeństwa.

W ciągu ostatniego roku Grok był oskarżany przez krytyków o szerzenie dezinformacji na temat najważniejszych wydarzeń prasowych, promowanie retoryki antysemickiej i udostępnianie wprowadzających w błąd informacji zdrowotnych. Konkuruje bezpośrednio z narzędziami takimi jak ChatGPT i Gemini, działając z mniej widocznymi ograniczeniami bezpieczeństwa. Każda debata podnosi to samo pytanie. Czy potężne narzędzie AI można wdrożyć w sposób odpowiedzialny bez silnego nadzoru i egzekwowania przepisów?

Co powinni wiedzieć rodzice i użytkownicy

Jeśli natkniesz się w Internecie na zdjęcia nieletnich o charakterze seksualnym lub inne obraźliwe materiały, zgłoś to natychmiast. W USA możesz skontaktować się z infolinią FBI lub poprosić o pomoc Krajowe Centrum ds. Dzieci Zaginionych i Wykorzystywanych.

Nie pobieraj, nie udostępniaj, nie zrzutuj ekranu ani nie wchodź w żaden inny sposób w interakcję z treścią. Nawet przeglądanie lub przesyłanie nielegalnych materiałów może narazić Cię na poważne ryzyko prawne.

Rodzice powinni także rozmawiać z dziećmi i nastolatkami na temat narzędzi obrazowania AI i podpowiedzi w mediach społecznościowych. Wiele z tych obrazów powstaje w wyniku przypadkowych próśb, które na pierwszy rzut oka nie wydają się niebezpieczne. Nauczenie dzieci zgłaszania treści, zamykania aplikacji i informowania zaufanej osoby dorosłej może zapobiec dalszemu rozprzestrzenianiu się szkód.

Platforma może zawieść. Obrona może się wycofać. Jednak wczesne zgłaszanie zagrożeń i jasne rozmowy w domu należą do najskuteczniejszych sposobów ochrony dzieci w Internecie.

Rozwiąż mój quiz: Jak bezpieczne jest Twoje bezpieczeństwo w Internecie?

Myślisz, że Twoje urządzenie i dane są naprawdę bezpieczne? Weź udział w tym krótkim quizie, aby sprawdzić, jakie są Twoje nawyki cyfrowe. Od haseł po ustawienia Wi-Fi — otrzymasz spersonalizowane zestawienie tego, co robisz dobrze, a co wymaga poprawy. Weź udział w moim quizie tutaj: Cyberguy.com

Oryginalny sposób koszyka

Skandal Groke’a uwydatnia niebezpieczną rzeczywistość. W miarę szybkiego rozprzestrzeniania się sztucznej inteligencji systemy te powiększają szkody na niespotykaną dotąd skalę. Kiedy zabezpieczenia zawodzą, cierpią prawdziwi ludzie, a dzieci stają w obliczu poważnego ryzyka. Jednocześnie zaufanie nie może polegać na przebaczeniu wydanym po wyrządzeniu krzywdy. Zamiast tego firmy muszą zdobywać zaufanie dzięki solidnym projektom zabezpieczeń, stałemu monitorowaniu i prawdziwej odpowiedzialności w przypadku pojawienia się problemów.

Czy system sztucznej inteligencji powinien zostać zatwierdzony do użytku rządowego lub szerszego użytku publicznego, zanim zostanie udowodnione, że może niezawodnie chronić dzieci i zapobiegać molestowaniu? Napisz do nas i daj nam znać Cyberguy.com.

Kliknij tutaj, aby pobrać aplikację Fox News

Zarejestruj się, aby otrzymać mój darmowy raport CyberGuy

Otrzymuj moje najlepsze wskazówki techniczne, pilne alerty dotyczące bezpieczeństwa i ekskluzywne oferty prosto do swojej skrzynki odbiorczej. Dodatkowo otrzymasz natychmiastowy dostęp do mojego Przewodnika po przetrwaniu w oszustwie — bezpłatnie, jeśli dołączysz do mnie CYBERGUY.COM Biuletyn

Prawa autorskie 2025 CyberGuy.com. Wszelkie prawa zastrzeżone

Source link