Mz OpenAI korzysta ponad 300 milionów ludzi CzatGPT co tydzień, co świadczy o atrakcyjności tej technologii. W tym miesiącu firma zaprezentowała „tryb profesjonalny” za nowy system sztucznej inteligencji „o1”, oferujący rozumowanie na poziomie ludzkim – za 10-krotność obecnej miesięcznej opłaty subskrypcyjnej wynoszącej 20 USD. Wydaje się, że jednym z jego zaawansowanych zachowań jest samozachowawczość. Podczas testów, gdy system był przekonany, że zostanie zamknięty, próbował wyłączyć mechanizm nadzoru. Kiedy „o1” znalazł notatki dotyczące zastąpienia, próbował się skopiować i nadpisać swój podstawowy kod. Dziwny? Absolutnie.

Mówiąc bardziej realistycznie, posunięcie to prawdopodobnie odzwierciedla zaprogramowanie systemu w celu optymalizacji wyników, a nie demonstrowanie intencji lub świadomości. Pomysł stworzenia inteligentnych maszyn wywołuje uczucie niepokoju. W informatyce jest to problem z gorylem: 7 milionów lat temu wyewoluował wymarły już naczelny, którego jedna gałąź prowadziła do goryli, a druga do ludzi. Obawa polega na tym, że tak jak goryle utraciły kontrolę nad swoim losem na rzecz ludzi, tak ludzie mogą stracić kontrolę na rzecz superinteligentnej sztucznej inteligencji. Nie jest oczywiste, że możemy sterować maszynami mądrzejszymi od nas.

Dlaczego takie rzeczy się wydarzyły? Giganci AI, tacy jak OpenAI i Google podobno stawić czoła ograniczeniom obliczeniowym: skalowanie modeli nie gwarantuje już inteligentniejszej sztucznej inteligencji. Przy ograniczonych danych większe nie znaczy lepsze. Poprawka? Ludzkie informacje zwrotne na temat rozumowania. 2023 papier autorstwa byłego głównego naukowca OpenAI odkrył, że metoda ta rozwiązała 78% trudnych problemów matematycznych w porównaniu z 70% w przypadku stosowania techniki, w której nie pomaga człowiek.

OpenAI wykorzystuje takie techniki w swoim nowym systemie „o1”, który według firmy rozwiąże obecne ograniczenia wzrostu. Informatyk Subbarao Kambhampati powiedział atlantycki że rozwój ten przypomina system sztucznej inteligencji rozgrywający milion partii szachowych w celu nauczenia się optymalnych strategii. Jednakże zespół z Yale, który testował system „o1”, opublikował artykuł, w którym zasugerował, że ulepszenie modelu języka w zakresie rozumowania pomaga – ale nie całkowicie. wyeliminować efekty swojego oryginalnego projektu jako po prostu sprytny predyktor słów.

Gdyby kosmici wylądowali i podarowali ludzkości superinteligentną czarną skrzynkę AI, mądrze byłoby zachować ostrożność podczas jej otwierania. Jednak dzisiejsze systemy sztucznej inteligencji projektują ludzie. Jeśli rzeczywiście okażą się manipulacyjne, będzie to wynikiem niepowodzenia projektowego. Poleganie na maszynie, której działania nie jesteśmy w stanie kontrolować, wymaga jej zaprogramowania w taki sposób, aby rzeczywiście odpowiadała ludzkim pragnieniom i życzeniom. Ale na ile jest to realistyczne?

W wielu kulturach istnieją historie o ludziach proszących bogów o boskie moce. Te opowieści o pychie często kończą się żalem, ponieważ życzenia są spełniane zbyt dosłownie, co prowadzi do nieprzewidzianych konsekwencji. Często trzecie i ostatnie życzenie służy do anulowania dwóch pierwszych. Przed takim kłopotem stanął Król Midaslegendarny grecki król, który pragnął, aby wszystko, czego dotknie, zamieniło się w złoto, by popaść w rozpacz, gdy jego jedzenie, napoje i bliskich spotkał ten sam los. Problem sztucznej inteligencji polega na tym, że potrzebujemy maszyn, które starają się osiągnąć ludzkie cele, ale wiedzą, że oprogramowanie nie wie dokładnie, jakie są te cele. Jest oczywiste, że niekontrolowana ambicja prowadzi do żalu. Kontrolowanie nieprzewidywalnej superinteligentnej sztucznej inteligencji wymaga ponownego przemyślenia, czym powinna być sztuczna inteligencja.

Ten wiodący artykuł nie został opublikowany w dniach, w których członkowie NUJ w Wielkiej Brytanii strajkowali.

Source link

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj