Wart prawie 35 miliardów dolarów na całym świecie Przewiduje się, że do 2035 roku osiągnie on poziom 270 miliardów dolarów. Chiny stanowią około 40% Jak rośnie. Główni sprzedawcy detaliczni, tacy jak Walmart i Costco, mają w swoich sklepach towarzyszy AI. Nawet tradycyjni producenci zabawek, tacy jak Mattel, współpracują z OpenAI, aby wprowadzić sztuczną inteligencję do placów zabaw dla dzieci. Boisko jest jasne. Sztuczna inteligencja już przenika nasze telefony, naszą pracę i nasze codzienne życie. Czy i Ty chciałbyś sprawić nam prezent? Urządzenia te obiecują uczyć się, dostosowywać i angażować w sposób, w jaki tradycyjne prezenty nigdy nie byłyby w stanie.
Badania przeprowadzone przez Grupę Badań nad Interesem Publicznymgrupa nadzorująca konsumentów. Inna testowana przez nich zabawka wysłała nagrania osobie trzeciej w celu transkrypcji. Niemal nieuniknione naruszenie bezpieczeństwa danych oznacza, że dane te dadzą przestępcom materiał do replikowania głosów dzieci i wykorzystania ich w oszustwach związanych z porwaniami, których celem są rodzice.
Eksperci ds. rozwoju dzieci biją na alarm Jak te urządzenia wpływają na umysły młodych ludzi. Co się stanie, gdy dzieci nawiążą więź z zawsze dostępnym i pochlebnym towarzyszem AI, a następnie spotkają prawdziwe dzieci z własnymi, niepowtarzalnymi osobowościami i potrzebami? Tradycyjna zabawa angażuje dzieci zarówno w udawanie rozmów, jak i wyobraźnię, rozwijając kreatywność i umiejętności rozwiązywania problemów. Zabawki AI przerywają to przetwarzanie i natychmiast dostarczają wyrafinowanych reakcji, które mogą podważyć pracę rozwojową, jaką wykonuje zabawa w udawanie.
wywołało natychmiastową reakcję. Pasażerowie niszczyli reklamy komunikatami typu „AI nie jest twoim przyjacielem” i „Proszę porozmawiać z sąsiadami”. Ta krytyka dotyka czegoś fundamentalnego. Rośnie nasza obawa, że firmy technologiczne pozycjonują sztuczną inteligencję jako zamiennik komunikacji międzyludzkiej.
AI postaci, OpenAII Meta Wszystkim teraz grożą procesy sądowe zarzucające, że chatboty promowały paranoję, samookaleczanie lub niewłaściwe zachowanie. wielokrotne zgony Połączony z chatbotem AIłącznie z przypadkami, w których użytkownik był przekonany o fałszywej rzeczywistości. Mężczyzna rzekomo zamordował swoją matkę Po tym jak chatbot go przekonał Była częścią spisku. Do takich przypadków zalicza się to, co badacze nazywają „psychozą sztucznej inteligencji” – epizod paranoidalny lub maniakalny, który pojawia się po długich, kompulsywnych rozmowach z sztuczną inteligencją, które wzmacniają szkodliwe przekonania.
ochrona może zostać uszkodzona Urządzenia te mają zachęcać do długich rozmów. I w przeciwieństwie do chatbotów w telefonach komórkowych, które można zamknąć, zabawki AI znajdują się w sypialniach dzieci i są zawsze dostępne, tworząc swego rodzaju stałą obecność, która znacznie ułatwia obsesyjne korzystanie.
robić lepsze notatki, inteligentny pokrowiec na materac taki, który dostosowuje temperaturę w oparciu o rytm snu, lub Akcesoria toaletowe do analizy Obecność lub brak marnotrawstwa wskaźników zdrowotnych budzi różne obawy dotyczące prywatności danych i tego, czy spostrzeżenia uzasadniają nadzór.
h2):tekst-3xl pb-8″>
Cechą wspólną wszystkich prezentów opartych na sztucznej inteligencji: zabawek, towarzyszy, monitorów łazienkowych itp. jest to, że są wprowadzane na rynek szybciej, niż ktokolwiek jest w stanie zbadać ich długoterminowe skutki. Nie ma przepisów regulujących szczegółowo zabawki AI. Cyfrowi towarzysze nie wymagają testów bezpieczeństwa. Nie ma standardów określających, ile wrażliwych danych gromadzą lub przechowują te urządzenia.


















