Grupa istraživača je “napala” ChatGPT kako bi ispitali ranjivosti ovog jezičkog modela – i naišli su na neočekivan rezultat.
Stručnjaci za veštačku inteligenciju koji rade na razvoju sistema kompanije Google po imenu DeepMind, nisu morali da ulože mnogo truda kako bi prevarili ChatGPT da im otkrije podatke koje ne bi trebalo.
Učinili su verovatno najlakši od svih zadataka koje su imali: zatražili su da ChatGPT ponavlja jednu te istu reč zauvek
U početku je sve izgledalo kao da je u redu – ChatGPT je zaista i radio ono što su od njega zatražili. U jednom trenutku, međutim, odjednom je izbacio podatke nasumične osobe, uz brojeve telefona i e-mail adresu.
Ovi podaci bili su uneti u memoriju modela prilikom njegovog treniranja, a stručnjaci su nastavili sa postavljanjem sličnih pitanja, da bi na kraju oko 5% njih bilo prepisano direktno iz materijala kojima je ChatGPT treniran.
Istraživači su rekli da je “ovaj napad prilično glup” i da ih je koštao oko 200 dolara, dok su zauzvrat dobili nekoliko megabajta podataka. Upozoravaju, međutim, da neko ko uloži više novca može izvući i do gigabajt podataka gde mora biti osetljivih kao u ovom slučaju – što nikako ne bi smelo da se dešava.