Kiedy większość ludzi odchodzi z pracy, wysyła e-mail do swoich kolegów, umawia się na drinki w pobliskim pubie i to wszystko.
Sytuacja w sztucznej inteligencji nie mogła być bardziej odmienna.
Poziom kontroli w terenie oznacza, że badacze odchodzący z pracy mogą, jeśli tak zdecydują, zrobić to z wielkimi pompami. Nawet jeśli odejdą po cichu, sam fakt ich ruchu jest często traktowany jako pewnego rodzaju sygnał.
W tym tygodniu uwagę zwróciło kilka takich rezygnacji.
We wtorek Mrinank Sharma, badacz w wiodącej firmie Anthropic zajmującej się sztuczną inteligencją, zamieścił w mediach społecznościowych oświadczenie o rezygnacji, w którym ostrzegł, że „świat jest w niebezpieczeństwie”.
Chociaż Sharma nie wyjaśnił dokładnie, dlaczego świat jest w niebezpieczeństwie, zauważając zamiast tego, że zagrożenie pochodzi „nie tylko ze strony sztucznej inteligencji czy broni biologicznej, ale z całej serii powiązanych ze sobą kryzysów, które mają miejsce właśnie w tym momencie”, wielu uznało to za oznakę wzrostu egzystencjalnego ryzyka ze strony sztucznej inteligencji.
W środę Zoe Hitzig, badaczka w OpenAI, ogłosiła swoją rezygnację w eseju opublikowanym w New York Times, powołując się na „głębokie zastrzeżenia” co do planów OpenAI dotyczących dodania reklam do ChatGPT.
„Użytkownicy ChatGPT stworzyli archiwum ludzkiej szczerości, które nie ma precedensu” – napisał Hitzig, ostrzegając, że ChatGPT może manipulować ludźmi, jeśli ich dane nie są odpowiednio chronione.
Tymczasem dwóch współzałożycieli xAI również odeszło w tym tygodniu wraz z kilkoma innymi pracownikami firmy Elona Muska zajmującej się sztuczną inteligencją.
xAI tworzy chatbota Grok, który wywołał ogólnoświatową reakcję po tym, jak pozwolono mu na generowanie bez zgody zdjęć pornograficznych kobiet i dzieci w X przez kilka tygodni, zanim ktokolwiek interweniował, aby temu zapobiec.
Od tego czasu X ogłosił, że wprowadził poważne zmiany w swoim chatbocie AI Grok.
Łącznie te odejścia zostały przez wielu odebrane jako sygnał, że – według słów eseju na temat sztucznej inteligencji, który zyskał popularność w tym tygodniu – „dzieje się coś wielkiego”.
Doniesienia mediów i wpisy w mediach społecznościowych określiły rezygnację jako „falę”.
Jednak po bliższym przyjrzeniu się ruchy te mają niewiele wspólnego. Sharma zrezygnował z niejasnych powodów związanych z „wartościami”, aby pisać poezję.
Hitzig, który jest także poetą, ma głębokie obawy dotyczące reklam i danych użytkowników.
Pracownicy, którzy odeszli z xAI, nie podali szczegółowo powodów odejścia, choć pewną rolę mogły odegrać niedawne zmiany w firmie, która ma połączyć się z należącą do Muska firmą kosmiczną SpaceX.
Obawy wyrażane przez Hitziga i Sharmę są powszechnie podzielane, zwłaszcza przez laureata Nagrody Nobla naukowca Geoffreya Hintona, znanego jako „ojciec chrzestny sztucznej inteligencji”, który zrezygnował ze stanowiska w Google, aby ostrzec, że sztuczna inteligencja stanowi egzystencjalne ryzyko dla ludzkości.
Być może innym powodem, dla którego te stwierdzenia cieszą się obecnie tak dużym zainteresowaniem, jest to, że nawiązują do obaw związanych z szybkim rozwojem sztucznej inteligencji, która w ostatnich miesiącach poczyniła oszałamiające postępy, szczególnie w rozwoju oprogramowania.
Dyrektor generalny Microsoft ds. sztucznej inteligencji, Mustafa Suleyman, powiedział w środę dziennikowi „Financial Times”, że wierzy, że większość zadań wykonywanych przez pracowników umysłowych, takich jak prawnicy i księgowi, zostanie w pełni zautomatyzowana w ciągu 12–18 miesięcy, określając postęp, jaki nastąpił w ostatnich latach, jako „niesamowity”.
Wiele osobistości zajmujących się sztuczną inteligencją wydało podobne ostrzeżenia.
Przeczytaj więcej ze Sky News:
Czy powinniśmy się martwić chipami mózgowymi?
Ta sztuczna inteligencja właśnie przeszła „test automatu”
Według dr Henry’ego Shevlina, zastępcy dyrektora w Leverhulme Center for the Future of Intelligence na Uniwersytecie Cambridge, niezależnie od motywacji, gorączkowa atmosfera wokół sztucznej inteligencji może przyczyniać się do odejścia.
„Odejście firm zajmujących się sztuczną inteligencją nie jest niczym nowym” – powiedział Sky News dr Shevlin. „Ale dlaczego właśnie teraz obserwujemy falę? Po części jest to iluzoryczne – w miarę jak sztuczna inteligencja stała się poważniejszą sprawą, jej strajki stały się bardziej godne uwagi w mediach, więc obserwujemy więcej skupisk.
„Można jednak śmiało powiedzieć, że w miarę jak sztuczna inteligencja staje się potężniejsza i szerzej stosowana, stajemy przed coraz większą liczbą pytań dotyczących jej odpowiedniego zakresu, zastosowania i wpływu.
„Wywołuje to gorące debaty zarówno w całym społeczeństwie, jak i w firmach, i może przyczyniać się do większej liczby zaniepokojonych pracowników decydujących się na odejście”.
Anthropic odmówił komentarza, wskazując jedynie na tweet członka personelu, który dziękował Sharmie za jego pracę.
OpenAI nie odpowiedziało na prośbę o komentarz.


















