Przytacza rosnące ryzyko
Rząd Indii zaproponował wczoraj, aby firmy zajmujące się sztuczną inteligencją i mediami społecznościowymi wyraźnie oznaczały treści generowane przez sztuczną inteligencję, aby zaradzić rozprzestrzenianiu się fałszywych informacji i dezinformacji, wywołanych podobnymi posunięciami Unii Europejskiej i Chin.
W rozległym kraju zamieszkałym przez wiele społeczności etnicznych i religijnych, gdzie liczba fałszywych wiadomości wynosi prawie miliard użytkowników, stawka jest wysoka, a fałszywe wiadomości wideo mogą wywołać śmiertelne konflikty, a fałszywe filmy wideo oparte na sztucznej inteligencji zaniepokoiły urzędników podczas wyborów.
Nowe zasady nakładają na platformy obowiązek oznaczania treści wygenerowanych przez sztuczną inteligencję znacznikami zajmującymi co najmniej 10 procent powierzchni wyświetlacza lub początkowe 10 procent czasu trwania klipu audio, nakładając więcej obowiązków na takie firmy jak OpenAI, Meta, X i Google.
Firmy z branży mediów społecznościowych będą również musiały uzyskać oświadczenie użytkownika stwierdzające, czy przesyłane informacje są generowane przez sztuczną inteligencję, oraz wdrożyć rozsądne środki techniczne w celu zapewnienia kontroli i równowagi, jak stwierdzono w projekcie propozycji indyjskiego rządu.
Przepisy „zapewnią widoczne oznakowanie, identyfikowalność metadanych i przejrzystość wszystkim publicznym mediom wykorzystującym sztuczną inteligencję” – oznajmiło indyjskie ministerstwo IT, zapraszając społeczeństwo i branżę do składania sugestii do 6 listopada.




















