Wart prawie 35 miliardów dolarów na całym świecie Przewiduje się, że do 2035 roku osiągnie on poziom 270 miliardów dolarów. Chiny stanowią około 40% Jak rośnie. Główni sprzedawcy detaliczni, tacy jak Walmart i Costco, mają w swoich sklepach towarzyszy AI. Nawet tradycyjni producenci zabawek, tacy jak Mattel, współpracują z OpenAI, aby wprowadzić sztuczną inteligencję do placów zabaw dla dzieci. Boisko jest jasne. Sztuczna inteligencja już przenika nasze telefony, naszą pracę i nasze codzienne życie. Czy i Ty chciałbyś sprawić nam prezent? Urządzenia te obiecują uczyć się, dostosowywać i angażować w sposób, w jaki tradycyjne prezenty nigdy nie byłyby w stanie.

h2):tekst-3xl pb-8″>

Nie są to jakieś mało znane produkty od przelotnego producenta. Wiele z nich działa na głównych modelach AI takich firm jak OpenAI. To ta sama technologia, która napędza ChatGPT. Nie nadaje się dla młodych użytkowników. Ale w jakiś sposób modele te trafiły do ​​zabawek sprzedawanych małym dzieciom.

Badania przeprowadzone przez Grupę Badań nad Interesem Publicznymgrupa nadzorująca konsumentów. Inna testowana przez nich zabawka wysłała nagrania osobie trzeciej w celu transkrypcji. Niemal nieuniknione naruszenie bezpieczeństwa danych oznacza, że ​​dane te dadzą przestępcom materiał do replikowania głosów dzieci i wykorzystania ich w oszustwach związanych z porwaniami, których celem są rodzice.

Eksperci ds. rozwoju dzieci biją na alarm Jak te urządzenia wpływają na umysły młodych ludzi. Co się stanie, gdy dzieci nawiążą więź z zawsze dostępnym i pochlebnym towarzyszem AI, a następnie spotkają prawdziwe dzieci z własnymi, niepowtarzalnymi osobowościami i potrzebami? Tradycyjna zabawa angażuje dzieci zarówno w udawanie rozmów, jak i wyobraźnię, rozwijając kreatywność i umiejętności rozwiązywania problemów. Zabawki AI przerywają to przetwarzanie i natychmiast dostarczają wyrafinowanych reakcji, które mogą podważyć pracę rozwojową, jaką wykonuje zabawa w udawanie.

wywołało natychmiastową reakcję. Pasażerowie niszczyli reklamy komunikatami typu „AI nie jest twoim przyjacielem” i „Proszę porozmawiać z sąsiadami”. Ta krytyka dotyka czegoś fundamentalnego. Rośnie nasza obawa, że ​​firmy technologiczne pozycjonują sztuczną inteligencję jako zamiennik komunikacji międzyludzkiej.

AI postaci, OpenAII Meta Wszystkim teraz grożą procesy sądowe zarzucające, że chatboty promowały paranoję, samookaleczanie lub niewłaściwe zachowanie. wielokrotne zgony Połączony z chatbotem AIłącznie z przypadkami, w których użytkownik był przekonany o fałszywej rzeczywistości. Mężczyzna rzekomo zamordował swoją matkę Po tym jak chatbot go przekonał Była częścią spisku. Do takich przypadków zalicza się to, co badacze nazywają „psychozą sztucznej inteligencji” – epizod paranoidalny lub maniakalny, który pojawia się po długich, kompulsywnych rozmowach z sztuczną inteligencją, które wzmacniają szkodliwe przekonania.

ochrona może zostać uszkodzona Urządzenia te mają zachęcać do długich rozmów. I w przeciwieństwie do chatbotów w telefonach komórkowych, które można zamknąć, zabawki AI znajdują się w sypialniach dzieci i są zawsze dostępne, tworząc swego rodzaju stałą obecność, która znacznie ułatwia obsesyjne korzystanie.

robić lepsze notatki, inteligentny pokrowiec na materac taki, który dostosowuje temperaturę w oparciu o rytm snu, lub Akcesoria toaletowe do analizy Obecność lub brak marnotrawstwa wskaźników zdrowotnych budzi różne obawy dotyczące prywatności danych i tego, czy spostrzeżenia uzasadniają nadzór.

h2):tekst-3xl pb-8″>

Cechą wspólną wszystkich prezentów opartych na sztucznej inteligencji: zabawek, towarzyszy, monitorów łazienkowych itp. jest to, że są wprowadzane na rynek szybciej, niż ktokolwiek jest w stanie zbadać ich długoterminowe skutki. Nie ma przepisów regulujących szczegółowo zabawki AI. Cyfrowi towarzysze nie wymagają testów bezpieczeństwa. Nie ma standardów określających, ile wrażliwych danych gromadzą lub przechowują te urządzenia.

📬 Subskrybuj Daily Brief

Source link