Tiktok i Instagram zostały oskarżone o atakowanie nastolatków z samobójstwem i treścią samookaleczenia – w wyższym tempie niż dwa lata temu.
Fundacja Molly Rose-założona przez Iana Russella po jego 14-letniej córce odebrała sobie życie po obejrzeniu szkodliwych treści w mediach społecznościowych -Zamawiana analiza setek postów na platformach, wykorzystując relacje 15-letniej dziewczynki z siedzibą w Wielkiej Brytanii.
Centrum polityki: śledź najnowsze aktualizacje
Organizacja charytatywna twierdziła, że filmy zalecane przez algorytmy na stronach dla ciebie nadal zawierały „tsunami” klipów zawierających „samobójstwo, samookaleczenie i intensywną depresję” dla osób poniżej 16 lat, które wcześniej zaangażowały się w podobny materiał.
Jeden na 10 szkodliwych postów był lubiany co najmniej milion razy. Naukowcy stwierdzili, że średnia liczba polubień wynosiła 226 000.
Russell powiedział Sky News, że wyniki były „przerażające” i wykazały, że przepisy dotyczące bezpieczeństwa online nie nadają się do celu.
„Dzieje się to na zegarku premiera”
Powiedział: „To oszałamiające, że osiem lat po śmierci Molly, niezwykle szkodliwe samobójstwo, samookaleczenie i treść depresji, tak jak widziała, jest nadal wszechobecna w mediach społecznościowych.
„Ostatnie kody bezpieczeństwa dzieci Ofcom nie pasują do samej skali szkody sugerowanej wrażliwym użytkownikom i ostatecznie niewiele robią, aby zapobiec większej liczbie zgonów, takich jak Molly.
„Sytuacja jest gorsza, a nie lepsza, pomimo działań rządów, organów regulacyjnych i ludzi takich jak ja. Raport pokazuje, że jeśli zbliżyłeś się do króliczej dziury szkodliwej treści samobójczej, jest to prawie nieuniknione.
„Przez ponad rok ta całkowicie możliwa do uniknięcia szkoda odbywa się na zegarku premiera i tam, gdzie Ofcom był nieśmiały, nadszedł czas, aby był silny i nie zwrócił się do wzmocnienia, bezzwłocznie ratujące życie prawodawstwo”.
Po śmierci Molly w 2017 r. Koroner orzekł, że cierpiała na depresję, a materiał, który postrzegała online, przyczynił się do jej śmierci „w bardziej minimalny sposób”.
Naukowcy z Bright Data analizowali 300 bębnów na Instagramie i 242 tiktoks, aby ustalić, czy „promowali i wychwalali samobójstwo i samookaleczenie”, odwołując się do idei lub metod lub „tematów intensywnej beznadziejności, nędzy i rozpaczy”.
Zgromadzono je między listopada 2024 a marcem 2025 r. Nowe kody dzieci dla firm technologicznych na podstawie ustawy o bezpieczeństwie online weszły w życie w lipcu.
Fundacja Molly Rose twierdziła, że Instagram „nadal algorytmicznie zaleca przerażająco wysoki poziom szkodliwego materiału”.
Naukowcy stwierdzili, że 97% filmów zalecanych na kołowrotkach Instagrama dla relacji nastoletniej dziewczynki, która wcześniej patrzyła na tę treść, zostało uznane za szkodliwe.
Powiedzieli, że około 44% aktywnie odnosiło się do samobójstwa i samookaleczenia. Twierdzili również, że szkodliwe treści zostały wysłane w wiadomościach e -mail zawierających zalecane treści dla użytkowników.
Rzecznik Meta, który jest właścicielem Instagrama, powiedział: „Nie zgadzamy się z twierdzeniami tego raportu i ograniczoną metodologią.
„Dziesiątki milionów nastolatków są teraz na kontach nastolatków na Instagramie, które oferują wbudowaną ochronę, która może się z nimi skontaktować, treści, które widzą, oraz czas spędzony na Instagramie.
„Nadal używamy zautomatyzowanej technologii do usuwania treści zachęcających do samobójstwa i samookaleczenia, z 99% proaktywnie działającymi przed zgłoszeniem nam. Opracowaliśmy konta nastolatków, aby pomóc w ochronie nastolatków online i nadal niestrudzenie, aby to zrobić”.
Tiktok
Raport podał, że Tiktok został oskarżony o polecenie „prawie nieprzerwanego podaży szkodliwego materiału”, przy czym 96% filmów jest uznane za szkodliwe.
Stwierdzono, że ponad połowa (55%) postów jest samobójczy i samookaleczona; Stwierdzono, że pojedyncze wyszukiwanie w celu promowania zachowań samobójczych, niebezpiecznych wyczynów i wyzwań.
Liczba problematycznych hashtagów wzrosła od 2023 r.; Raport twierdzi, że z wieloma udostępnionymi na wysoce oprawnych kontach, które opracowały „listy odtwarzania” szkodliwych treści.
Rzecznik Tiktok powiedział: „Konta dla nastolatków na Tiktok mają ponad 50 funkcji i ustawień zaprojektowanych, aby pomóc im bezpiecznie wyrażać się, odkrywać i uczyć się, a rodzice mogą dodatkowo dostosować 20+ ustawienia treści i prywatności poprzez parowanie rodzin.
„Przy ponad 99% naruszenia treści proaktywnie usunięto przez Tiktok, ustalenia nie odzwierciedlają prawdziwych doświadczeń ludzi na naszej platformie, co przyznaje raport”.
Według Tiktok nie pozwalają na pokazywanie ani promowanie samobójstwa i samookaleczenia, i mówią, że zakazane hashtagi prowadzą użytkowników do obsługi infolinii.
Czytaj więcej:
Reakcja przeciwko nowym zasadom bezpieczeństwa online
X Musk’s chce „znaczących” zmian w OSA
„Brutalna rzeczywistość”
Obie platformy umożliwiają młodym użytkownikom przekazywanie negatywnych opinii na temat szkodliwych treści zalecanych im. Ale naukowcy odkryli, że mogą również przekazać pozytywne opinie na temat tej treści i zostać wysłane na następne 30 dni.
Sekretarz technologii Peter Kyle powiedział: „Liczby te pokazują brutalną rzeczywistość – o wiele zbyt długo, firmy technologiczne stały jako internetowe podłe treści dzieciom, niszcząc młode życie, a nawet rozrywając niektóre rodziny na kawałki.
„Ale firmy nie mogą już udawać, że nie widzą. Ustawa o bezpieczeństwie online, która weszła w życie na początku tego roku, wymaga platform do ochrony wszystkich użytkowników przed nielegalną treścią i dzieci przed najbardziej szkodliwymi treściami, takimi jak promowanie lub zachęcanie do samobójstwa i samookaleczenia. 45 witryn jest już badane”.
Rzecznik Ofcom powiedział: „Ponieważ te badania zostały przeprowadzone, weszły w życie nasze nowe środki ochrony dzieci online.
„Będą one oznaczać znaczącą różnicę dla dzieci – pomagając zapobiegać narażeniu na najbardziej szkodliwe treści, w tym samobójstwo i materiały samookaleczenia. I po raz pierwszy usługi będą wymagane przez prawo, aby oswoić algorytmy toksyczne.
„Firmy technologiczne, które nie są zgodne z środkami ochrony określonymi w naszych kodach, mogą oczekiwać działań egzekwowania”.
„Migawka rocka”
Odrębny raport dzisiaj od komisarza dzieci stwierdził, że odsetek dzieci, które widziały pornografię online, wzrósł w ciągu ostatnich dwóch lat – również napędzany algorytmami.
Rachel de Souza opisała treść, jaką młodzi ludzie postrzegają jako „gwałtowne, ekstremalne i poniżające” i często nielegalne, i powiedziała, że odkrycia jej biura muszą być postrzegane jako „migawka tego, jak wygląda Rock Bottom”.
Ponad połowa (58%) respondentów w ankiecie stwierdziła, że jako dzieci widziała pornografię obejmującą uduszenie, a 44% zgłosiło widzenie gwałtu – szczególnie kogoś, kto spał.
Badanie w wieku od 16 do 21 osób w ankiecie w wieku od 16 do 21 lat wykazało, że mieli średnio 13 lat, kiedy po raz pierwszy zobaczyli pornografię. Ponad jedna czwarta (27%) stwierdziła, że ma 11 lat, a niektórzy zgłaszali, że mają sześć lub młodsze.
Każdy, kto czuje się zaniepokojony emocjonalnie lub samobójczy, może zadzwonić do Samarytan w celu uzyskania pomocy w 116 123 lub e -mailu jo@samaritans.org w Wielkiej Brytanii. W Stanach Zjednoczonych zadzwoń do oddziału Samaritans w twoim obszarze lub 1 (800) 273-talk.




















