11. Maja 2025.

ChatGPT je sve pametniji, ali istovremeno više halucinira

Na korisnicima je da AI odgovore uzimaju s velikom dozom rezerve.

Istorija je prepuna briljantnih, ali nepouzdanih pojedinaca, a osobina, kako izgleda, nije zaobišla ni veštačku inteligenciju. Prema istrazi koju je OpenAI sproveo i podelio s The New York Times-om, njihovi najnoviji ChatGPT AI modeli, GPT o3 i o4-mini, pokazuju znatnu sklonost halucinacijama, tj. izmišljanju činjenica.

Modeli GPT o3 i o4-mini osmišljeni su da oponašaju ljudsko rezonovanje, za razliku od starijih verzija koje su se fokusirale na tečno generisanje teksta. OpenAI je istakao da je prethodni model o1 mogao dostigne ili premašiti uspeh doktoranata u hemiji, biologiji i matematici. Ali, najnoviji rezultati izazivaju zabrinutost.

U testu koji je uključivao javne osobe GPT o3 halucinirao je u 33% slučajeva, dvostruko više nego o1. Manji model o4-mini bio je još nepouzdaniji, s 48% odgovora koji su sadržali izmišljotine. Na SimpleQA testu opšteg znanja brojevi su porasli: 51% odgovora modela o3 i 79% o4-mini bili su netačni, piše portal Tech Radar.

Pretpostavka koja se razmatra u AI zajednici jeste da što više model pokušava da rezonuje, to mu raste verovatnoća greške. Stariji, jednostavniji modeli drže se visoko samouverenih predviđanja, dok noviji analiziraju više puteva i improvizuju, što onda lako prelazi u izmišljanje činjenica.

Foto: Voar Designs / Shutterstock.com

Izvor: B92

Podijeli vijest na:

Pretplata
Obavijesti o
guest

0 Komentara
Najstariji
Najnoviji Najviše glasova
Inline Feedbacks
Pregledaj sve komentare