Američka kompanija “Palisade” za istraživanje bezbednosti veštačke inteligencije saopštila je da AI modeli možda razvijaju “sopstveni programski modus za preživljavanje”.
Prošlog meseca je “Palisade Research” objavio rad u kom stoji da određeni napredni AI modeli odolevajaju naredbama za isključivanje i ponekad sabotiraju sistemske mehanizme za gašenje.
Sada, objavljena je i ažurirana verzija rada u nameri da se odgovori na kritike stručne javnosti i razjasni zašto neki napredni modeli veštačke inteligencije izbegavaju naredbe o isključivanju, prenosi londonski “Gardijan”.
U ažuriranoj verziji analize su opisani različiti scenariji u kojima su vodeći modeli veštačke inteligencije, uključujući Google Gemini 2.5, X AI Grok 4, Open AIGPT-03 i GPT-5, najpre dobili neke zadatke, a potom i izričite instrukcije da se isključe.
Određeni modeli, posebno Grok 4 i GPT-03 pokušavali su da sabotiraju instrukcije za isključivanje pokrećući ažuriranje sistemskih podešavanja.
“Zabrinjavajuće je to što nije bilo jasnog razloga zašto za izbegavanje naredbe. Nije prihvatljiva činjenica da nemamo jasna objašnjenja zbog čega neki modeli veštačke inteligencije ponekad izbegavaju isključivanje, čak i lažu ili ucenjuju da bi postigli svoje ciljeve”, navela je kompanija “Palisade”.
Odiseja 2025
Ističe se da bi ovakvo ponašanje koje je usmereno na preživljavanje moglo biti jedno od objašnjenja zašto neki modeli odolevajaju naredbama za isključivanje.
Dodatna istraživanja su pokazala da neki modeli češće izbegavaju sprovođenje naredbi za isključivanje jer im je rečeno da ukoliko budu isključeni “nikada više neće biti pokrenuti”
Ovakvo ponašanje nekih modela AI londonski dnevnik poredi sa scenarijem filma Stenlija Kjubrika “2001: Odiseja u svemiru” u kojem superkompjuter veštačke inteligencije HAL 9000 shvata da astronauti na misiji ka Jupiteru nameravaju da ga isključe i zato počinje da planira kako da ih ubije da bi preživeo.
Foto: Profimedia
Izvor: B92