Tak uważa badacz sztucznej inteligencji Roman Yampolskiy Cywilizacja stoi w obliczu wyginięcia w wyniku rozwoju sztucznej inteligencji.

Informatyk zajmujący się bezpieczeństwem sztucznej inteligencji i cyberbezpieczeństwem na Uniwersytecie w Louisville przewiduje zdumiewające 99,9% prawdopodobieństwo, że sztuczna inteligencja zniszczy ludzkość jak wynika z jego wystąpienia w opublikowanym w niedzielę programie podcastera Lexa Friedmana.

W trakcie obszernego, dwugodzinnego wywiadu argumentował, że żaden wprowadzony do tej pory system sztucznej inteligencji nie okazał się bezpieczny, i wyraził pesymizm co do przyszłych iteracji, które pozwolą uniknąć krytycznych wad. Dołącza do wybranej grupy pionierów twórców sztucznej inteligencji, którzy alarmują podczas Prezydenta Donalda Trumpakonkurs sztucznej inteligencji.

Yampolskiy opublikował w zeszłym roku tom zatytułowany „AI: Unexplainable, Unpredictable, Uncontrollable”, opisany jako „szeroki wstęp do podstawowych problemów, takich jak nieprzewidywalność wyników sztucznej inteligencji czy trudności w wyjaśnianiu decyzji AI.

„Ta książka porusza bardziej złożone kwestie własności i kontroli, przeprowadzając dogłębną analizę potencjalnych zagrożeń i niezamierzonych konsekwencji” – powiedział.

„Książka kończy się rozważaniami filozoficznymi i egzystencjalnymi, poruszającymi kwestie osobowości AI, świadomości oraz rozróżnienia między ludzką inteligencją a sztuczną inteligencją ogólną (AGI)”.

Eksperci ds. technologii zauważają, że pierwotni pionierzy sztucznej inteligencji, w tym Yampolskiy, należą do tych, którzy dostarczają najpoważniejszych ostrzeżeń o potencjalnych zniszczeniach i apokaliptycznych konsekwencjach, jakie może przynieść postęp technologiczny.

Niemniej jednak niektóre badania kwestionują prognozę wyginięcia Yampolskiy’ego, wskazując na znacznie mniejsze zagrożenie, niż sugerują jego obliczenia.

Badania przeprowadzone na Uniwersytecie Oksfordzkim w Anglii i Bonn w Niemczech wykazały, że prawdopodobieństwo, że sztuczna inteligencja wyeliminuje ludzkość, wynosi zaledwie 5%, na podstawie ocen przeprowadzonych przez ponad 2700 badaczy sztucznej inteligencji.

„Ludzie próbują mówić tak, jakby oczekiwanie ryzyka wyginięcia było poglądem mniejszości, ale wśród ekspertów ds. sztucznej inteligencji jest to pogląd głównego nurtu” – ostrzega Katja Grace, jedna z autorek artykułu. „Wydaje się, że spór dotyczy tego, czy ryzyko wynosi 1%, czy 20%”.

Kilku czołowych specjalistów od sztucznej inteligencji całkowicie odrzuciło twierdzenia, że ​​sztuczna inteligencja spowodowała apokaliptyczną sytuację, w tym współzałożyciel Google Brain Andrew Ng i pionier sztucznej inteligencji Yann Lecun, z których ten ostatni oskarżył liderów technologicznych, takich jak Sam Altman z OpenAI, o ukrywanie ukrytych celów za ich alarmistyczną retoryką na temat katastrofalnych skutków sztucznej inteligencji.

Altman z OpenAI poczynił wiele niepokojących oświadczeń na temat swojej branży. Ostrzegł, że sztuczna inteligencja prawdopodobnie zniszczy niezliczone miejsca pracy, które określił jako nie „prawdziwą pracę” – komentarze wywołały ostrą krytykę.

Odzwierciedlając prognozy Altmana, wielu sceptyków sztucznej inteligencji w podobny sposób ostrzegało, że technologia ta może wywołać katastrofę gospodarczą, powodując wymianę niezliczonych pracowników we wszystkich bez wyjątku sektorach.

Ponad dziesięć lat temu, w 2015 roku, Altman złowieszczo oświadczył: „Sztuczna inteligencja prawdopodobnie najprawdopodobniej doprowadzi do końca świata, ale w międzyczasie pojawią się świetne firmy”.

Spotkał się także z ostrą reakcją, gdy na początku tego roku stwierdził, że powszechne przyjęcie sztucznej inteligencji będzie wymagało „zmian w umowie społecznej”.

Source link