Nova studija sugeriše da su napredni modeli veštačke inteligencije prilično dobri u to me da se ponašaju gluplje nego što zaista jesu.
Objavljeno u časopisu PLOS One, istraživači sa berlinskog Humbolt univerziteta otkrili su da su prilikom testiranja velikog jezičkog modela (LLM), na osnovu takozvanih kriterijuma “teorije uma”, otkrili da ne samo da veštačka inteligencija može da oponaša faze učenja jezika prikazane kod dece, a dodatno i izražava nešto slično mentalnim sposobnostima u vezi sa tim fazama.
U intervjuu za PsyPost, istraživačka asistentkinja Univerziteta Humboldt i glavna autorka studije Ana Marklova, koja je takođe stručnjak za psiholingvistiku, objasnila je kako je njeno polje studija povezano sa fascinantnim otkrićem.
“Zahvaljujući psiholingvistici, imamo relativno sveobuhvatno razumevanje za šta su deca sposobna u različitim uzrastima”, rekla je Marklova agenciji. “Naročito, teorija uma igra značajnu ulogu, jer istražuje unutrašnji svet deteta i nije je lako oponašati posmatranjem jednostavnih statističkih obrazaca”.
Sa ovom teorijom u pozadini, istraživačica i njene kolege sa Karlovog univerziteta u Pragu pokušali su da utvrde da li LLM-ovi poput OpenAI GPT-4 “mogu da se pretvaraju da su manje sposobni nego što zaista jesu”.
Da bi to shvatio, istraživački tim je dao instrukcije modelima da se ponašaju kao deca u progresivnom uzrastu od jedne do šest godina kada daju odgovore. Kada su ubačeni u niz od više od 1.000 ispitivanja i kognitivnih testova, izgledalo je da ove “simulirane dečije ličnosti” zaista napreduju isto kao i deca tog uzrasta — i, na kraju, pokazali su da modeli mogu da se pretvaraju da su manje inteligentni nego što stvarno jesu.
“Veliki jezički modeli sposobni su da glume nižu inteligenciju od one koju poseduju”, zaključila je Marklova.
Ovi nalazi bi mogli da pomognu u razvoju veštačke superinteligencije (ASI), narednog koraka nakon opšte veštačke inteligencije (AGI) na nivou čoveka , kao i da pomognu da AI bude bezbedniji kada to učinimo.
“U razvoju ASI, moramo biti oprezni da ne zahtevamo da oni oponašaju ljudsku, a samim tim i ograničenu inteligenciju”, rekla je ona u intervjuu. “Pored toga, to sugeriše da možemo potceniti njihove sposobnosti u dužem periodu, što nije bezbedna situacija”.