Reporter technologii

Setki tysięcy rozmów użytkowników z sztuczną inteligencją Elona Muska (AI) Chatbot Grok zostało ujawnionych w wynikach wyszukiwania – pozornie bez wiedzy użytkowników.
Unikalne linki są tworzone, gdy użytkownicy GROK naciskają przycisk, aby udostępnić transkrypcję swojej rozmowy – ale oprócz udostępniania czatu z zamierzonym odbiorcą wydaje się, że przycisk sprawił, że czaty można przeszukać online.
Wyszukiwanie Google w czwartek ujawniło, że indeksowało prawie 300 000 rozmów Grok.
Doprowadził jednego eksperta do opisania chatbotów AI jako „katastrofy prywatności w toku”.
BBC zbliżyło się do X o komentarz.
Pojawienie się czatów Grok w wynikach wyszukiwarek zostało po raz pierwszy zgłoszone przez publikację branży technologicznej Forbes, który liczył ponad 370 000 Rozmowy użytkowników w Google.
Wśród transkryptów czatu widocznych przez BBC były przykłady chatbota Muska, które proszono o stworzenie bezpiecznego hasła, zapewnienie planów posiłków na utratę masy ciała i odpowiedz na szczegółowe pytania dotyczące schorzeń.
Niektóre indeksowane transkrypcje pokazały również próby przetestowania granic tego, co Grok powiedziałby lub zrobiłby.
W jednym przykładzie widzianym przez BBC chatbot podał szczegółowe instrukcje, jak uczynić lek klasowy w laboratorium.
Nie po raz pierwszy rozmowy ludzi z chatbotami AI pojawiły się szerzej, niż być może początkowo zrealizowały podczas korzystania z funkcji „Udostępnij”.
Openai niedawno powrócił do „eksperymentu”, w którym rozmowy CHATGPT pojawiły się w wynikach wyszukiwania, gdy są udostępniane przez użytkowników.
Rzecznik powiedział BBC News w momencie „testowania sposobów, aby ułatwić dzielenie się pomocnymi rozmowami, przy jednoczesnym utrzymaniu kontroli użytkowników”.
Powiedzieli, że czaty użytkowników były domyślnie prywatne, a użytkownicy musieli wyraźnie zdecydować się na ich udostępnienie.
Na początku tego roku Meta spotkała się z krytyką po udostępnieniu rozmów użytkowników z Meta AI Chatbot pojawił się w publicznym kanale „odkryj” w swojej aplikacji.
„Katastrofa prywatności”
Chociaż szczegóły konta użytkowników mogą być anonimowe lub zaciemnione w wspólnych transkryptach chatbota, ich podpowiedzi mogą nadal zawierać – i ryzykować ujawnienie – osobiste, poufne informacje o kimś.
Eksperci twierdzą, że podkreśla to obawy dotyczące prywatności użytkowników.
„Chatboty AI są w toku katastrofy prywatności” – powiedział BBC prof. Luc Rocher, profesor nadzwyczajny w Oxford Internet Institute.
Powiedzieli, że „wyciekające rozmowy” od chatbotów ujawniły informacje o użytkownikach, od pełnych nazwisk i lokalizacji, po wrażliwe szczegóły dotyczące ich zdrowia psychicznego, operacji biznesowych lub relacji.
„Po wycieku online rozmowy te pozostaną tam na zawsze” – dodali.
Tymczasem Carissa Veliz, profesor nadzwyczajny w filozofii w Oxford University Institute for Ethics in AI, powiedział, że użytkownicy nie powiedziano, że czaty udostępniane pojawią się w wynikach wyszukiwania, jest „problematyczne”.
„Nasza technologia nawet nie mówi nam, co robi z naszymi danymi, i to jest problem” – powiedziała.
