Gubernator Kalifornii Gavin Newsom w niedzielę zawetował gorąco kwestionowaną ustawę o bezpieczeństwie sztucznej inteligencji po tym, jak branża technologiczna zgłosiła sprzeciw. Newsom powiedział, że wymaganie od firm testowania warunków skrajnych dużych modeli sztucznej inteligencji przed ich wypuszczeniem na rynek może wypchnąć firmy zajmujące się sztuczną inteligencją z państwa i utrudnić innowacje.

„Kalifornia jest siedzibą 32 z 50 wiodących na świecie firm zajmujących się sztuczną inteligencją” – stwierdził gubernator w oświadczeniu dołączonym do weta. „Ustawa nakłada rygorystyczne standardy nawet na najbardziej podstawowe funkcje – pod warunkiem, że zostanie wdrożone w dużym systemie. Nie sądzę, że jest to najlepsze podejście do ochrony społeczeństwa przed realnymi zagrożeniami, jakie stwarza ta technologia.

Ustawa o bezpiecznych i bezpiecznych innowacjach w zakresie granicznych modeli sztucznej inteligencji, oficjalnie znana jako SB 1047, miałaby być skierowana do firm opracowujących generatywną sztuczną inteligencję, która może odpowiadać na podpowiedzi w pełni ukształtowanym tekstem, obrazami lub dźwiękiem, a także wykonywać powtarzalne zadania przy minimalnej interwencji. Firmy budujące modele kosztujące ponad 100 mln dolarów musiałyby wdrożyć „wyłączniki awaryjne” dla swojej sztucznej inteligencji, a także opublikować plany testowania i łagodzenia ekstremalnych zagrożeń.

Newsom powiedział, że zwrócił się do czołowych ekspertów z amerykańskiego Instytutu Bezpieczeństwa AI ds. generatywnej sztucznej inteligencji, aby pomogli Kalifornii w „opracowaniu wykonalnych poręczy”, które skupiałyby się „na opracowaniu empirycznej, opartej na nauce analizy trajektorii”. Nakazał także agencjom państwowym rozszerzenie oceny ryzyka wynikającego z potencjalnych katastrofalnych zdarzeń związanych z wykorzystaniem sztucznej inteligencji.

Pomimo weta gubernator powiedział: „Nie możemy sobie pozwolić na czekanie, aż nastąpi poważna katastrofa, zanim podejmiemy działania mające na celu ochronę społeczeństwa… Należy przyjąć protokoły bezpieczeństwa”.

„Chociaż SB 1047 ma dobre intencje, nie bierze pod uwagę tego, czy system sztucznej inteligencji jest wdrażany w środowiskach wysokiego ryzyka, wiąże się z podejmowaniem kluczowych decyzji lub wykorzystaniem wrażliwych danych” – napisał Newsom. „Z tych powodów nie mogę podpisać tej ustawy”.

Ustawa SB 1047, napisana przez senatora stanu Demokratów Scotta Wienera z San Francisco, zawierała szereg środków ochronnych i nadzoru, w tym wymaganie od firm wdrożenia możliwości całkowitego wyłączenia modelu w przypadku sytuacji awaryjnych, aby korzystały z modelu sztucznej inteligencji wyłącznie przez określony czas. celu, a także ochronę sygnalistów dla pracowników chcących ujawnić problemy z systemem sztucznej inteligencji.

W odpowiedzi na weto Newsoma Wiener powiedział: „To weto stawia nas w niepokojącej rzeczywistości, w której firmy chcące stworzyć niezwykle potężną technologię nie napotykają żadnych wiążących ograniczeń ze strony amerykańskich decydentów… Jednocześnie debata wokół SB 1047 radykalnie posunęła się do przodu w tej kwestii bezpieczeństwa sztucznej inteligencji na arenie międzynarodowej.”

Firmy i grupy zajmujące się sztuczną inteligencją sprzymierzone z Doliną Krzemową pochwaliły weto Newsoma. Marc Andreessen, inwestor zajmujący się kapitałem wysokiego ryzyka, napisał: „Dziękuję @gavinnewsom za zawetowanie uchwały SB1047 – za opowiedzenie się po stronie kalifornijskiego dynamiki, wzrostu gospodarczego i wolności obliczeń zamiast bezpieczeństwa, doomerii i upadku”. Główny specjalista ds. sztucznej inteligencji w Meta, Yann Lecun, również nazwał ustawę „skrajnie regresywną”. Przedstawiciele Kalifornii, Nancy Pelosi i Ro Khanna, obaj Demokraci, wyrazili swój sprzeciw w tygodniach poprzedzających jego decyzję.

Zrywając z większością branży technologicznej, dyrektor generalny Tesli i właściciel X, Elon Musk, zaoferował umiarkowane wsparcie dla przepisów, tweetując w sierpniu, że „Kalifornia powinna prawdopodobnie przyjąć ustawę o bezpieczeństwie SB 1047 AI”, chociaż stwierdził, że opowiadanie się za nią będzie „trudne wezwanie”.

Krytycy szybkiego rozwoju sztucznej inteligencji potępili decyzję gubernatora. Daniel Colson, założyciel thinktanku AI Policy Institution, nazwał weto Newsoma „lekkomyślnym” i „nie nadążającym za ludźmi, którymi ma rządzić”.

To trudna decyzja i niektórzy mogą się zdenerwować, ale biorąc pod uwagę wszystko, myślę, że Kalifornia powinna prawdopodobnie uchwalić ustawę dotyczącą bezpieczeństwa SB 1047 AI.

Od ponad 20 lat jestem zwolennikiem regulacji dotyczących sztucznej inteligencji, tak jak regulujemy każdy produkt/technologię stanowiącą potencjalne ryzyko…

— Elon Musk (@elonmusk) 26 sierpnia 2024 r

„}}”>

To trudna decyzja i niektórzy mogą się zdenerwować, ale biorąc pod uwagę wszystko, myślę, że Kalifornia powinna prawdopodobnie uchwalić ustawę dotyczącą bezpieczeństwa SB 1047 AI.

Od ponad 20 lat jestem zwolennikiem regulacji dotyczących sztucznej inteligencji, tak jak regulujemy każdy produkt/technologię stanowiącą potencjalne ryzyko…

— Elon Musk (@elonmusk) 26 sierpnia 2024 r

SB 1047 spotkał się z ostrą krytyką ze względu na to, jak według niektórych organizacji wpłynie to na społeczność open source. Fundacja Mozilla, organizacja non-profit będąca właścicielem twórcy przeglądarki Mozilla Firefox, wcześniej nalegała, aby Newsom zawetował ustawę.

„Dzisiaj widzimy podobieństwa do wczesnego Internetu w ekosystemie sztucznej inteligencji, który również staje się coraz bardziej zamknięty i skonsolidowany w rękach kilku dużych firm technologicznych” – napisała fundacja we wcześniejszym oświadczeniu. „Obawiamy się, że SB 1047 pogłębi ten trend, szkodząc społeczności open source i czyniąc sztuczną inteligencję mniej bezpieczną – nie więcej.”

Ustawa uzyskała poparcie szeregu hollywoodzkich artystów, którzy w piśmie opublikowanym na początku tego miesiąca namawiali Newsoma do podpisania ustawy.

Aktor Mark Ruffalo napisał w oświadczeniu: „Czy ta ustawa jest idealna? Nic nie jest. Czy nadaje właściwy ton regulowaniu branży, która może wyrządzić zarówno wiele szkody, jak i pożytku? To prawda. Będzie chronić społeczeństwo i stworzy podwaliny pod bezpieczną ekspansję sztucznej inteligencji w naszym życiu.”

Source link