Nova studija uvjerava da napredni modeli vještačke inteligencije, uprkos strahovima, ostaju vezani svojim programiranjem, ne predstavljajući prijetnju autonomije i otuđivanja od čovjeka.
Naučna fantastika često prikazuje veštačku inteligenciju kao pretnju čovečanstvu, sa scenarijima poput HAL-9000 (2001: Odiseja u svemiru) i Skyneta (Terminator franšiza) koji naglašavaju strah od mašina koje će se okrenuti protiv svojih kreatora. Danas, s porastom sofisticiranih velikih jezičnih modela (LLM-ova) kao što je ChatGPT, te brige su postale relevantnije.
Međutim, nova studija koju su vodili računarski naučnici Iryna Gurevič s Tehničkog univerziteta u Darmštatuu u Nemačkoj i Hariš Tajar Madabuši sa Univerziteta u Batu u Velikoj Britaniji, donosi umirujuće vesti. Studija zaključuje da ti LLM modeli nisu sposobni da se otuđe, s obzirom na to da su previše ograničeni svojim programiranjem da razviju nove sposobnosti bez čovekovih instrukcija.
Neopravdani strah i nedostatak istinske inteligencije
“Strah je bio da će, kako modeli postaju sve veći i veći, moći da reše nove probleme koje trenutno ne možemo da predvidimo, što predstavlja pretnju da bi ti veći modeli mogli da steknu opasne sposobnosti, uključujući razmišljanje i planiranje. Naša studija pokazuje da strah da će se LLM model oteti kontroli i učiniti nešto potpuno neočekivano, inovativno i potencijalno opasno nije opravdan”, objašnjava Tajar Madabuši.
Uprkos značajnom napretku u LLM tehnologiji, koji sada može da učestvuje u koherentnim tekstualnim razgovorima oponašajući ljudsku interakciju, još uvek joj nedostaje istinska inteligencija. LLM modeli mogu uverljivo da prenesu netačne informacije, ali to je zbog ograničenja u obradi, a ne zbog autonomnog zaključivanja.
B92.