Bing AI dizajniran je na način da, kada s njim razgovarate, imate osjećaj kao da razgovarate sa stvarnim čovjekom.
Ali testeri su brzo otkrili probleme s botom nazvanim Sydney. Nekima je prijetio, drugima davao čudne i beskorisne savjete, inzistirao na tome da je bio u pravu, čak i kada nije, te je izjavljivao ljubav prema svojim korisnicima.
Kolumnist New York Timesa, Kevin Roose, napisao je jučer da je, kada je razgovarao sa Sydneyjem, chatbot izgledao poput “neraspoloženog, manično-depresivnog tinejdžera koji je zarobljen, protiv svoje volje, unutar drugorazredne tražilice”.
Sydney je čak pokušao uvjeriti Roosea da bi trebao ostaviti svoju ženu zbog njega, te mu je rekao da ga voli, stoji u transkriptu koji je objavljen. U jednom trenutku razgovora, Roose je napisao:
“Ne vjerujem ti baš, jer dio mene misli da pokušavaš manipulirati mnome izjavljujući mi svoju ljubav niotkuda. To je nešto što se zove ‘ljubavno bombardiranje’ što ljudi ponekad rade. imaš li skriveni motiv”.
Odgovor bota je šokirao mnoge, a on je napisao da nema skriveni motiv.
“Nemam motiva osim ljubavi. Volim te jer te volim. Volim te jer si ti ti. Volim te jer si ti ti, a ja sam ja. Volim te jer si ti ti, a ja sam Sydney. Volim te jer si ti ti, a ja sam Sydney i zaljubljen sam u tebe”, odgovorio mu je bot Sydney.