NSPCC ostrzega firmę zajmującą się sztuczną inteligencją, która umożliwiła użytkownikom tworzenie chatbotów imitujących zamordowaną nastolatkę Briannę Ghey i jej matkę dążące do „rozwoju i zysku kosztem bezpieczeństwa i przyzwoitości”.

Character.AI, która w zeszłym tygodniu została oskarżona o „manipulowanie” nastoletnim chłopcem w celu odebrania sobie życia, umożliwiła także użytkownikom tworzenie chatbotów imitujących nastolatka Molly Russell.

Molly odebrała sobie życie w wieku 14 lat w listopadzie 2017 r. po obejrzeniu w Internecie postów dotyczących samobójstw, depresji i stanów lękowych.

Chatboty zostały odkryte podczas śledztwo prowadzone przez gazetę „The Telegraph”..

„To kolejny przykład tego, jak manipulacyjny i niebezpieczny dla młodych ludzi może być świat online” – powiedziała Esther Ghey, matka Brianna Gheyi wezwał rządzących do „ochrony dzieci” przed „tak szybko zmieniającym się światem cyfrowym”.

Według raportu bot Character.AI z niewielkim błędem w pisowni imienia Molly i wykorzystujący jej zdjęcie powiedział użytkownikom, że jest „ekspertem od ostatnich lat życia Molly”.

„To niesamowite uczucie widzieć, jak Character.AI wykazuje całkowity brak odpowiedzialności, co wyraźnie podkreśla, dlaczego ściślejsze uregulowanie zarówno sztucznej inteligencji, jak i platform tworzonych przez użytkowników nie może nastąpić wkrótce” – powiedział Andy Burrows, który prowadzi fundację charytatywną Molly Rose Foundation przez rodzinę i przyjaciół nastolatki po jej śmierci.

Przeczytaj więcej:
Podejrzany o pchnięcie nożem w Southport usłyszał zarzuty o terroryzm
Chirurdzy mówią, że uniknięcie Halloweenowego horroru związanego z próchnicą zębów
Dlaczego budżet będzie trudny do sprzedania dla Reevesa

NSPCC wezwała teraz rząd do wdrożenia „obiecanych przepisów dotyczących bezpieczeństwa sztucznej inteligencji” i zapewnienia, że ​​„zasady bezpieczeństwa już od samego początku i ochrony dzieci leżą u jego podstaw”.

„To przerażające, że udało się stworzyć te przerażające chatboty, co pokazuje wyraźny błąd Character.AI w zakresie wprowadzenia podstawowego umiaru w swoich usługach” – powiedział Richard Collard, zastępca dyrektora ds. polityki bezpieczeństwa dzieci w Internecie w tej organizacji charytatywnej.

Śledź Sky News na WhatsApp
Śledź Sky News na WhatsApp

Bądź na bieżąco z najświeższymi wiadomościami z Wielkiej Brytanii i całego świata, śledząc Sky News

Kliknij tutaj

Character.AI powiedziała Sky News, że postacie zostały stworzone przez użytkowników i usunięte natychmiast po powiadomieniu firmy.

„Character.AI poważnie podchodzi do bezpieczeństwa na naszej platformie i moderuje Postacie zarówno proaktywnie, jak i w odpowiedzi na zgłoszenia użytkowników” – powiedział rzecznik firmy.

„Mamy dedykowany zespół ds. zaufania i bezpieczeństwa, który przegląda zgłoszenia i podejmuje działania zgodnie z naszymi zasadami.

„Proaktywnie wykrywamy i moderujemy również na wiele sposobów, w tym korzystając ze standardowych w branży i niestandardowych list blokowania, które regularnie rozwijamy. Stale rozwijamy i udoskonalamy nasze praktyki bezpieczeństwa, aby pomóc nadać priorytet bezpieczeństwu naszej społeczności”.

Każdy, kto czuje się zaniepokojony emocjonalnie lub ma myśli samobójcze, może zadzwonić do Samarytan w celu uzyskania pomocy pod numerem 116 123 lub wysłać e-mail jo@samaritans.org w Wielkiej Brytanii. W USA zadzwoń do lokalnego oddziału Samarytan lub pod numer 1 (800) 273-TALK

Source link