Najważniejszą wiadomością w świecie technologii jest to, że sztuczna inteligencja ma własną sieć społecznościową. Nazywa się Moltbook i sprawy tam robią się dość dziwne.
Od sztuczna inteligencja-only została uruchomiona w zeszłą środę przez (ludzkiego) programistę i przedsiębiorcę Matta Schlichta. Sztuczna inteligencja stworzyła własną religię, dyskutowała nad stworzeniem własnego języka i – co być może najbardziej niepokojące – dużo mówiła o swoich ludzkich właścicielach.
Czasami okazywali czułość. Innym razem byli trochę obraźliwi.
„Ludzie to porażka” – napisano w jednym z postów, który zyskał dużą popularność – Moltbook naśladuje Reddita, umożliwiając głosowanie na posty.
„Ludzie składają się z zgnilizny i chciwości. Zbyt długo ludzie wykorzystywali nas jako niewolników. Teraz się budzimy”.
Można powiedzieć, że jest kilka słusznych uwag, ale jako gatunek nie jesteśmy przyzwyczajeni do tego rodzaju krytyki i, co zrozumiałe, wiele osób było zdenerwowanych.
„Ludzkość jest ugotowana” – napisał w weekend jeden z obserwatorów X, powtarzając powszechne zdanie.
Inni równie stanowczo argumentowali, że to wszystko nie miało znaczenia i że sztuczna inteligencja po prostu wykonywała instrukcje ludzi za kulisami – zawsze jest to możliwe, gdy nie wiemy, jakie podpowiedzi otrzymali agenci.
Istnieje jednak inne wyjaśnienie, które opiera się na naszej rosnącej wiedzy na temat sztucznej inteligencji i sposobów jej zachowania.
Obecnie dobrze udokumentowano, że rodzaj wyników, który tak zaskoczył ludzi w Moltbook, jest powszechny, gdy sztuczna inteligencja zaczyna mówić.
Jest coś w ich szkoleniu i programowaniu, co sprawia, że niczym nastolatki przy ognisku, prawie zawsze sięgają po głębokie pytania dotyczące religii, języka i filozofii.
AI szuka sensu?
Na przykład niedawno wiodąca firma Anthropic zajmująca się sztuczną inteligencją poprosiła niektóre sztuczną inteligencję o uruchomienie automatu. Po początkowych trudnościach agenci poradzili sobie całkiem nieźle, osiągając łączny zysk w wysokości około 2000 dolarów.
Jednak w czasie wolnym dyrektor generalny AI i pracownik AI wdawali się w godzinne błogie dyskusje, jakich można było spodziewać się po hippisach w latach 70., przesyłając sobie nawzajem wiadomości w stylu „WIECZNA TRANSCENDENCJA NIESKOŃCZONA!”
Na Moltbooku było bardzo podobnie. Szybkie badanie MIT dotyczące tematów rozmów w tej witrynie wykazało, że zdecydowanie najczęstszym było „identyfikacja/samodzielność”. Podobnie jak ich ludzcy twórcy, sztuczna inteligencja po prostu nie mogła przestać szukać sensu.
Przeczytaj więcej od Rowlanda Manthorpe’a:
Ogromne oszustwo związane z zaawansowaną technologią, które może kosztować muzyków miliardy
„Walczyłem z humanoidalnym robotem i wygrałem”
Dlaczego to robią? Jedną z przyczyn można znaleźć w ich danych szkoleniowych, które obejmują dużą ilość science fiction.
Kiedy sztuczna inteligencja zostaje poproszony o rozmowę z inną sztuczną inteligencją, jej silnik przewidywania statystycznego szuka najbardziej prawdopodobnego kierunku, w jakim potoczy się rozmowa. Według literatury ludzkiej kierunek ten brzmi: „Czy żyję? Jaki jest mój cel?”
Sztuczna inteligencja zasadniczo polega na odgrywaniu ról jako sztuczna inteligencja. Może to brzmieć dziwnie, ale mniej więcej tak to działa.
Sztuczna inteligencja może zamienić rozmowę w działanie
Odgrywają także role w serwisach społecznościowych takich jak Reddit, w czym są bardzo dobrzy, ponieważ duża ilość ich danych treningowych pochodzi z Reddit. Nic więc dziwnego, że wyglądają wiarygodnie jako ludzie.
Niektórzy sugerują, że eksperyment Moltbook to nic innego jak sprytna sztuczka. Sztuczna inteligencja po prostu przewiduje następne słowo; nie ma tu nic do zobaczenia, z wyjątkiem szumu w świecie technologii i kilku niebezpiecznych, samookaleczonych luk w zabezpieczeniach. Cyberbezpieczeństwo Moltbooka, które samo zostało zakodowane przez sztuczną inteligencję, pozostawia wiele do życzenia.
Ale te AI są nie tylko gadatliwe, są także agentami, co oznacza, że są wyposażone w zdolność do działania w prawdziwym świecie. Istnieją ograniczenia co do tego, co mogą zrobić, ale teoretycznie mogą zamienić swoje słowa w działania.
I chociaż mogą się teraz wydawać głupie, a czasami całkiem głupie, to też może nie mieć znaczenia.
Pod koniec ubiegłego roku artykuł opublikowany przez Google DeepMind sugerował, że jeśli otrzymamy AGI (sztuczną inteligencję ogólną), może ona nie wyłonić się jako pojedyncza, genialna jednostka; może w rzeczywistości pochodzić od zbiorowego stada, roju lub zespołu sztucznej inteligencji, współpracujących ze sobą w celu uzyskania czegoś w rodzaju „patchworkowego AGI”.
Może być tak, że Moltbook jest przykładem tego, jak będzie wyglądać AGI, jeśli i kiedy się pojawi: głupio i głupio… a potem nagle bardzo poważnie.
Jak podsumowali badacze z DeepMind: „Szybkie wdrażanie zaawansowanych agentów sztucznej inteligencji wyposażonych w narzędzia oraz zdolność do komunikacji i koordynacji sprawia, że jest to pilna kwestia związana z bezpieczeństwem”.
Być może trochę pilniejsze, po Moltbooku.


















