Debata publiczna na temat sztucznej inteligencji w szkolnictwie wyższym w dużej mierze skupiała się na znanym zmartwieniu: oszustwie. Czy uczniowie będą używać chatbotów do pisania esejów? Czy instruktorzy mogą to powiedzieć? Czy uniwersytety powinny zakazać tej technologii? Objąć to?
Te obawy są zrozumiałe. Jednak skupianie się tak bardzo na ściąganiu pomija większą transformację, która już trwa, wykraczającą daleko poza niewłaściwe zachowanie uczniów, a nawet klasę.
Uniwersytety wdrażają sztuczną inteligencję w wielu obszarach życia instytucjonalnego. Niektóre zastosowania są w dużej mierze niewidoczne, jak na przykład systemy pomagające przydzielać zasoby, sygnalizować uczniów „zagrożonych”, optymalizować harmonogram kursów lub automatyzować rutynowe decyzje administracyjne. Inne zastosowania są bardziej zauważalne. Uczniowie używają narzędzi sztucznej inteligencji do podsumowywania i studiowania, instruktorzy używają ich do tworzenia zadań i programów nauczania, a badacze używają ich do pisania kodu, skanowania literatury i kompresowania godzin żmudnej pracy w minuty.
Ludzie mogą używać sztucznej inteligencji do oszukiwania lub pomijania zadań służbowych. Jednak liczne zastosowania sztucznej inteligencji w szkolnictwie wyższym i zmiany, jakie zwiastują, nasuwają znacznie głębsze pytanie: co stanie się ze szkolnictwem wyższym w miarę, jak maszyny będą coraz bardziej zdolne do wykonywania pracy badawczej i uczenia się? Jaki cel ma uniwersytet?
Przez ostatnie osiem lat badaliśmy moralne implikacje wszechobecnego zaangażowania w sztuczną inteligencję w ramach wspólnego projektu badawczego pomiędzy Centrum Etyki Stosowanej na UMass w Bostonie a Instytutem Etyki i Nowych Technologii. W niedawnej białej księdze argumentujemy, że w miarę jak systemy sztucznej inteligencji stają się coraz bardziej autonomiczne, wzrastają etyczne zagrożenia związane z wykorzystaniem sztucznej inteligencji w szkolnictwie wyższym, podobnie jak jej potencjalne konsekwencje.
W miarę jak technologie te stają się coraz lepsze w wykonywaniu pracy opartej na wiedzy – projektowaniu zajęć, pisaniu prac, proponowaniu eksperymentów i podsumowywaniu trudnych tekstów – nie tylko zwiększają produktywność uniwersytetów. Ryzykują wydrążeniem ekosystemu uczenia się i mentoringu, na którym zbudowane są te instytucje i od którego są zależne.
Nieautonomiczna sztuczna inteligencja
Rozważmy trzy rodzaje systemów sztucznej inteligencji i ich wpływ na życie uniwersyteckie:
Oprogramowanie oparte na sztucznej inteligencji jest już wykorzystywane w całym szkolnictwie wyższym do oceny przyjęć, zakupów, doradztwa akademickiego i oceny ryzyka instytucjonalnego. Uważa się je za systemy „nieautonomiczne”, ponieważ automatyzują zadania, ale człowiek jest „w pętli” i używa tych systemów jako narzędzi.
Technologie te mogą stanowić zagrożenie dla prywatności i bezpieczeństwa danych uczniów. Mogą być również stronnicze. Często brakuje im też wystarczającej przejrzystości, aby określić źródła tych problemów. Kto ma dostęp do danych uczniów? W jaki sposób generowane są „oceny ryzyka”? Jak zapobiec powielaniu przez systemy nierówności lub traktowaniu niektórych uczniów jako problemów, którymi należy się zająć?
Pytania te są poważne, ale nie są koncepcyjnie nowe, przynajmniej w dziedzinie informatyki. Uniwersytety zazwyczaj posiadają biura ds. zgodności, instytucjonalne komisje odwoławcze i mechanizmy zarządzania, które mają pomóc zaradzić lub złagodzić te ryzyka, nawet jeśli czasami nie osiągają tych celów.
Hybrydowa sztuczna inteligencja
Systemy hybrydowe obejmują szereg narzędzi, w tym chatboty szkoleniowe wspomagane sztuczną inteligencją, narzędzia do spersonalizowanych informacji zwrotnych i automatyczne wsparcie w pisaniu. Często opierają się na generatywnych technologiach AI, zwłaszcza na dużych modelach językowych. Chociaż użytkownicy wyznaczają ogólne cele, pośrednie kroki, jakie system podejmuje, aby je osiągnąć, często nie są określone.
Systemy hybrydowe w coraz większym stopniu kształtują codzienną pracę akademicką. Uczniowie wykorzystują je jako towarzyszy w pisaniu, korepetytorów, partnerów do burzy mózgów i tłumaczy na żądanie. Wydział wykorzystuje je do generowania rubryk, projektów wykładów i projektowania programów nauczania. Naukowcy używają ich do podsumowywania artykułów, komentowania wersji roboczych, projektowania eksperymentów i generowania kodu.
To tutaj należy rozmawiać o „oszukiwaniu”. Ponieważ zarówno studenci, jak i wykładowcy w coraz większym stopniu korzystają z pomocy technologii, rozsądne jest zastanowienie się, jakie rodzaje uczenia się mogą zostać utracone po drodze. Jednak systemy hybrydowe rodzą również bardziej złożone pytania etyczne.
Jedno ma związek z przejrzystością. Chatboty AI oferują interfejsy w języku naturalnym, dzięki którym trudno jest stwierdzić, kiedy wchodzisz w interakcję z człowiekiem, a kiedy z automatycznym agentem. Może to zniechęcać i rozpraszać osoby, które z nimi wchodzą w interakcję. Uczeń przeglądający materiał na test powinien być w stanie rozpoznać, czy rozmawia z asystentem nauczyciela, czy z robotem. Uczeń czytający opinię na temat pracy semestralnej musi wiedzieć, czy została napisana przez jego instruktora. Wszystko, co w takich przypadkach jest mniej niż całkowita przejrzystość, będzie zniechęcać wszystkich zaangażowanych i przesunie punkt ciężkości interakcji akademickich z uczenia się na środki lub technologię uczenia się. Naukowcy z Uniwersytetu w Pittsburghu wykazali, że dynamika ta wywołuje u studentów poczucie niepewności, niepokoju i nieufności. To są problematyczne wyniki.
Druga kwestia etyczna dotyczy odpowiedzialności i wiarygodności intelektualnej. Jeśli instruktor wykorzystuje sztuczną inteligencję do napisania zadania, a uczeń używa sztucznej inteligencji do napisania odpowiedzi, kto dokonuje oceny i co dokładnie jest oceniane? Jeśli informacje zwrotne są częściowo generowane maszynowo, kto jest odpowiedzialny, jeśli wprowadzają w błąd, zniechęcają lub zawierają ukryte założenia? A kiedy sztuczna inteligencja w znacznym stopniu przyczyni się do syntezy lub pisania badań naukowych, uniwersytety będą potrzebować jaśniejszych norm dotyczących autorstwa i odpowiedzialności – nie tylko dla studentów, ale także dla wykładowców.
Wreszcie pojawia się kluczowa kwestia odciążenia poznawczego. Sztuczna inteligencja może zmniejszyć harówkę, co samo w sobie nie jest złe. Może jednak również odciągnąć użytkowników od tych elementów uczenia się, które budują kompetencje, takich jak generowanie pomysłów, zmaganie się z zamieszaniem, poprawianie niezdarnej wersji roboczej i uczenie się dostrzegania własnych błędów.
Agenci autonomiczni
Najbardziej znaczące zmiany mogą dotyczyć systemów, które mniej przypominają asystentów, a bardziej agentów. O ile prawdziwie autonomiczne technologie pozostają aspiracjami, o tyle marzenie o badaczu „w pudełku” – agentycznym systemie AI, który może samodzielnie przeprowadzać badania – staje się coraz bardziej realne.
Oczekuje się, że narzędzia agentyczne „zwolnią czas” na pracę skupiającą się na bardziej ludzkich zdolnościach, takich jak empatia i rozwiązywanie problemów. W nauczaniu może to oznaczać, że wykładowcy mogą nadal nauczać w głównym sensie, ale większą część codziennej pracy związanej z nauczaniem można przekazać systemom zoptymalizowanym pod kątem wydajności i skali. Podobnie w przypadku badań kierunek wskazuje na systemy, które mogą w coraz większym stopniu automatyzować cykl badawczy. W niektórych dziedzinach wygląda to już jak zrobotyzowane laboratoria, które działają w sposób ciągły, automatyzują dużą część eksperymentów, a nawet wybierają nowe testy na podstawie wcześniejszych wyników.
Na pierwszy rzut oka może to brzmieć jak mile widziany wzrost produktywności. Ale uniwersytety nie są fabrykami informacji; są to systemy praktyki. Opierają się na grupie absolwentów i pracowników akademickich rozpoczynających karierę, którzy uczą się uczyć i prowadzić badania, uczestnicząc w tej samej pracy. Jeśli autonomiczni agenci przejmą więcej „rutynowych” obowiązków, które w przeszłości służyły jako rampy wkraczające w życie akademickie, uniwersytet może w dalszym ciągu tworzyć kursy i publikacje, po cichu przerzedzając struktury możliwości, które z biegiem czasu podtrzymują specjalistyczną wiedzę.
Ta sama dynamika dotyczy studentów studiów licencjackich, choć w innym rejestrze. Kiedy systemy sztucznej inteligencji mogą na żądanie dostarczać wyjaśnienia, projekty, rozwiązania i plany nauki, pojawia się pokusa, aby odciążyć najbardziej wymagające części nauki. Branży, która wprowadza sztuczną inteligencję na uniwersytety, może się wydawać, że tego rodzaju praca jest „nieefektywna” i że studentom będzie lepiej, jeśli pozwolą, aby poradziła sobie z tym maszyna. Ale to właśnie natura tej walki buduje trwałe zrozumienie. Psychologia poznawcza pokazała, że uczniowie rozwijają się intelektualnie poprzez pisanie, poprawianie, ponoszenie porażek, ponowne próby, zmaganie się z zamieszaniem i weryfikację słabych argumentów. To jest praca polegająca na uczeniu się, jak się uczyć.
Podsumowując, zmiany te sugerują, że największym ryzykiem stwarzanym przez automatyzację w szkolnictwie wyższym nie jest po prostu zastąpienie poszczególnych zadań maszynami, ale erozja szerszego ekosystemu praktyki, który od dawna stanowi podstawę nauczania, badań i uczenia się.
Niewygodny punkt przegięcia
Jaki więc cel mają uniwersytety w świecie, w którym praca z wiedzą jest coraz bardziej zautomatyzowana?
Jedna z możliwych odpowiedzi traktuje uniwersytet przede wszystkim jako siłę napędową wytwarzania referencji i wiedzy. W tym przypadku podstawowe pytanie brzmi: czy studenci kończą studia z dyplomem? Czy powstają artykuły i odkrycia? Jeśli systemy autonomiczne mogą skuteczniej dostarczać te wyniki, instytucja ma wszelkie powody, aby je przyjąć.
Ale inna odpowiedź traktuje uniwersytet jako coś więcej niż maszynę produkcyjną, uznając, że wartość szkolnictwa wyższego leży częściowo w samym ekosystemie. Model ten przypisuje wewnętrzną wartość szeregowi możliwości, dzięki którym nowicjusze stają się ekspertami, strukturom mentorskim, dzięki którym kultywuje się osąd i odpowiedzialność, oraz projektowi edukacyjnemu, który zachęca do produktywnej walki, a nie ją optymalizuje. W tym przypadku liczy się nie tylko to, czy wiedza i stopnie naukowe są wytwarzane, ale także to, w jaki sposób powstają oraz jakiego rodzaju ludzie, zdolności i społeczności kształtują się w tym procesie. W tej wersji uniwersytet ma służyć jedynie jako ekosystem, który w niezawodny sposób kształtuje ludzką wiedzę i osąd.
Uważamy, że w świecie, w którym sama praca z wiedzą jest coraz bardziej zautomatyzowana, uniwersytety muszą zadać sobie pytanie, co szkolnictwo wyższe zawdzięcza swoim studentom, pracownikom naukowym rozpoczynającym karierę zawodową oraz społeczeństwu, któremu służy. Odpowiedzi zadecydują nie tylko o tym, w jaki sposób sztuczna inteligencja zostanie przyjęta, ale także o tym, czym stanie się współczesny uniwersytet.


















