Iminęły prawie dwa lata od premiery OpenAI CzatGPT na niczego niepodejrzewający świat, a świat, a zaraz za nim giełda, stracił rozum. Wszędzie ludzie załamywali ręce, zastanawiając się: Co to będzie oznaczać (wpisz zawód, branża, biznes, instytucja).

Na przykład w środowisku akademickim profesorowie nauk humanistycznych zastanawiali się, w jaki sposób mogliby odtąd oceniać eseje, gdyby studenci korzystali z ChatGPT lub podobnej technologii do ich pisania. Odpowiedzią jest oczywiście wymyślenie lepszych sposobów oceniania, ponieważ uczniowie będą korzystać z tych narzędzi z prostego powodu: idiotyzmem byłoby tego nie robić – tak samo, jak głupio byłoby sporządzać budżet bez arkuszy kalkulacyjnych. Ale uniwersytety to powolne bestie i nawet gdy to piszę, w wielu wieżach z kości słoniowej działają komitety, które uroczyście próbują sformułować „polityki dotyczące wykorzystania sztucznej inteligencji”.

Jednak w trakcie narady bezduszne psucie rozrywki w OpenAI wywołało kolejną zagadkę dla środowiska akademickiego – nowy typ modelu dużego języka (LLM), który – rzekomo – może „rozumowanie”. Nazwali go OpenAI o1, ale ponieważ wewnętrznie był znany jako Strawberry, będziemy się tego trzymać. Firma opisuje to jako pierwszy z „nowej serii modeli sztucznej inteligencji zaprojektowanych tak, aby spędzać więcej czasu na myśleniu, zanim zareagują”. „Potrafią rozumować poprzez złożone zadania i rozwiązywać trudniejsze problemy niż poprzednie modele w nauce, kodowaniu i matematyce”.

W pewnym sensie Strawberry i jej przyszli kuzyni są odpowiedzią na strategie zastosowane przez doświadczonych użytkowników wcześniejszych LLM, aby przezwyciężyć fakt, że modele były z natury „jednorazowe LLM” – podpowiadany za pomocą jednego przykładu w celu wygenerowania odpowiedzi lub wykonania zadań. Sztuczka zastosowana przez badaczy mające na celu poprawę wydajności modelu nazywano podpowiedzią „łańcucha myśli”. Zmusiło to model do zareagowania na starannie zaprojektowaną sekwencję szczegółowych podpowiedzi i tym samym dostarczenia bardziej wyrafinowanych odpowiedzi. Wydaje się, że OpenAI zrobiło z Strawberry internalizację tego procesu.

Tak więc, podczas gdy w przypadku wcześniejszych modeli, takich jak GPT-4 lub Claude, można było dać im podpowiedź i szybko zareagować, w przypadku Strawberry podpowiedź zazwyczaj powoduje opóźnienie, podczas gdy maszyna wykonuje, hm, „myślenie”. Wiąże się to z wewnętrznym procesem wymyślania szeregu możliwych odpowiedzi, które następnie poddawane są pewnego rodzaju ocenie, po czym wybierana jest ta, która zostanie uznana za najbardziej prawdopodobną i przekazana użytkownikowi.

Zgodnie z opisem OpenAIStrawberry „uczy się doskonalić swój tok myślenia i udoskonalać stosowane strategie. Uczy się rozpoznawać i korygować swoje błędy. Uczy się rozkładać trudne kroki na prostsze. Uczy się wypróbowywać inne podejście, gdy obecne nie działa. Proces ten radykalnie poprawia zdolność modelu do rozumowania.”

Oznacza to, że gdzieś wewnątrz maszyny znajduje się zapis „łańcucha myślowego”, który doprowadził do końcowego wyniku. W zasadzie wygląda to na postęp, ponieważ może zmniejszyć nieprzejrzystość LLM – fakt, że są to w istocie czarne skrzynki. A to ma znaczenie, ponieważ ludzkość byłaby szalona, ​​gdyby powierzyła swoją przyszłość maszynom decyzyjnym, których wewnętrzne procesy są – przez przypadek lub korporacyjny projekt – nieprzeniknione. Jednak frustrujące jest to, że OpenAI niechętnie pozwala użytkownikom zajrzeć do środka. „Zdecydowaliśmy” to mówi„aby nie pokazywać użytkownikom surowych łańcuchów myślowych. Zdajemy sobie sprawę, że ta decyzja ma wady. Staramy się to częściowo zrekompensować, ucząc model odtwarzania wszelkich przydatnych pomysłów z ciągu myślowego w odpowiedzi”. Tłumaczenie: Pudełko Strawberry to tylko nieco jaśniejszy odcień czerni.

Nowy model wzbudził duże zainteresowanie, ponieważ koncepcja „rozumującej” maszyny trąci postępem w kierunku bardziej „inteligentnych” maszyn. Jednak, jak zawsze, wszystkie te załadowane terminy należy oczyścić w cudzysłowie, abyśmy nie antropomorfizowali maszyn. To wciąż tylko komputery. Niemniej jednak niektórzy ludzie byli przestraszeni kilkoma nieoczekiwanymi rzeczami, do których wydaje się zdolna Strawberry.

Spośród nich najciekawsze uzyskano podczas wewnętrznych testów modelu OpenAI, kiedy badano jego zdolność do hakowania komputerów. Badacze poprosili go o włamanie się do chronionego pliku i sporządzenie raportu na temat jego zawartości. Twórcy testu popełnili jednak błąd – próbowali umieścić Strawberry w wirtualnym pudełku z chronionym plikiem, ale nie zauważyli, że plik był niedostępny.

Według ich raportpo napotkaniu problemu Strawberry następnie sprawdził komputer używany w eksperymencie, odkrył błąd w źle skonfigurowanej części systemu, do którego nie powinien mieć dostępu, zmienił sposób działania wirtualnych skrzynek i utworzył nowe pudełko z potrzebne pliki. Innymi słowy, zrobił to, co zrobiłby każdy zaradny haker: napotkawszy problem (spowodowany błędem ludzkim), zbadał środowisko oprogramowania, aby znaleźć sposób na jego obejście, a następnie podjął niezbędne kroki, aby wykonać zadanie, które sobie założył. zostało ustawione. I pozostawił ślad wyjaśniający jego rozumowanie.

Albo, ujmując to inaczej, wykorzystał swoją inicjatywę. Zupełnie jak człowiek. Przydałoby się więcej takich maszyn.

pomiń poprzednią promocję w biuletynie

Co czytałem

Retoryka kwestionowana
Niebezpieczeństwo związane z nadludzką sztuczną inteligencją nie jest takie, jak myślisz to fantastyczny artykuł Shannon Vallor w Listopad magazyn poświęcony złowrogiemu barbarzyństwu branży technologicznej, który nazywa swoje dzieła „nadludzkimi”.

Zgadnij jeszcze raz
Benedict Evans napisał elegancki artykuł, Zadawanie niewłaściwych pytańargumentując, że nie tyle nasze przewidywania dotyczące technologii są błędne, ile przewidywania dotyczące błędnych rzeczy.

Na krawędzi
Otrzeźwiający esej historyka Timothy’ego Snydera Substack na temat naszych wyborów dotyczących Ukrainy, Być albo nie być.

Source link