Wyścig zbrojeń o sztuczną inteligencję (AI) supremacja, wywołana przez ostatnią panikę nad chińskim chatbotem Deepeek, ryzykuje wzmocnienie egzystencjalnych zagrożeń związanych z superinteligencją, według jednego z „chrzestnych” AI.

Kanadyjski pionier uczenia maszynowego Yoshua Bengio, autor pierwszego międzynarodowego raportu bezpieczeństwa AI, który został przedstawiony na międzynarodowym szczycie sztucznej inteligencji w Paryżu w przyszłym tygodniu, ostrzega niezapomniane inwestycje w władzę obliczeniową dla sztucznej inteligencji, jest niebezpieczna.

„Wysiłek wchodzi w to, kto wygra wyścig, a nie jak upewniamy się, że nie będziemy budować czegoś, co wysadzi się w twarz” – mówi Bengio.

Wyścigi wojskowe i ekonomiczne, ostrzega: „skutkuje ograniczeniem zakrętów etyki, ograniczanie odpowiedzialności i bezpieczeństwa. Jest to nieuniknione”.

Bengio pracował nad sieciami neuronowymi i uczeniem maszynowym, architekturą oprogramowania, która leży u podstaw nowoczesnych modeli AI.

Jest w Londynie wraz z innymi pionierami sztucznej inteligencji, aby otrzymać nagrodę Queen Elizabeth, najbardziej prestiżową nagrodę inżynierii w Wielkiej Brytanii w uznaniu AI i jej potencjału.

Jest entuzjastycznie nastawiony do jego korzyści dla społeczeństwa, ale odległość od regulacji AI Białego Domu Donalda Trumpa i szalonej konkurencji wśród dużych firm technologicznych o mocniejsze modele AI to niepokojąca zmiana.

Więcej o sztucznej inteligencji

„Budujemy systemy, które są coraz mocniejsze; w niektórych wymiarach staje się nadludzki” – mówi.

„Ponieważ systemy te stają się silniejsze, stają się również niezwykle cenniejsze, ekonomiczne.

„Tak więc wielkość„ wow, to zarabia na mnie dużo pieniędzy ”, motywuje wiele ludzi. I oczywiście, gdy chcesz sprzedawać produkty, nie chcesz rozmawiać o ryzyku”.

Ale nie wszyscy „chrzestni” AI są tak zaniepokojeni.

Weź Yann LeCun, główny naukowca AI Meta, również w Londynie, aby podzielić się w nagrodę QE.

Yann Lecun, główny naukowca AI Meta
Obraz:
Yann Lecun, główny naukowca AI Meta

„Zostaliśmy złudzeni, myśląc, że duże modele językowe są inteligentne, ale tak naprawdę nie są” – mówi.

„Nie mamy maszyn, które są tak mądrze jak kot, pod względem zrozumienia świata fizycznego”.

W ciągu trzech do pięciu lat LeCun przewiduje, że sztuczna inteligencja będzie miała pewne aspekty inteligencji na poziomie ludzkim. Na przykład roboty, które mogą wykonywać zadania, do których nie zostały zaprogramowane ani przeszkolone.

Czytaj więcej:
AI może zwiększyć szybkość leczenia raka piersi
Materiał, który może pomieścić klucz do niemal limitowej energii

Ale, jak twierdzi, zamiast uczynić świat mniej bezpiecznym, dramat Deepseek – w którym chińska firma opracowała sztuczną inteligencję, aby rywalizować z wielką technologią najlepszej Ameryki z dziesiątą siły obliczeniowej – pokazuje, że nikt nie będzie długo dominować.

„Jeśli Stany Zjednoczone zdecydują się upościć, jeśli chodzi o sztuczną inteligencję z powodów geopolitycznych lub powodów komercyjnych, będziesz miał innowację w miejscu na świecie. Deepseek to pokazał” – mówi.

Nagroda Royal Academy of Engineering jest przyznawana każdego roku inżynierom, których odkrycia mają lub obiecują, że ma największy wpływ na świat.

Poprzedni biorcy obejmują pionierów komórek fotowoltaicznych w panelach słonecznych, technologię turbin wiatrowych i magnesy neodymowe występujące w napędach twardych oraz silnikach elektrycznych.

Minister nauki Lord Vallance, który przewodniczy Fundacji Nagrody QE, mówi, że jest czujny na potencjalne ryzyko AI. Organizacje takie jak nowy instytut bezpieczeństwa AI w Wielkiej Brytanii mają na celu przewidzieć i zapobiec potencjalnym szkodom „inteligencji” podobnej do człowieka.

Minister nauki Lord Vallance
Obraz:
Minister nauki Lord Vallance

Ale mniej martwi się o to, że jeden naród lub firma ma monopol na sztuczną inteligencję.

„Myślę, że to, co widzieliśmy w ciągu ostatnich kilku tygodni, jest o wiele bardziej prawdopodobne, że będziemy mieć wiele firm w tej przestrzeni, a idea dominacji jednopunktowej jest raczej mało prawdopodobna”-mówi.

Source link