Interesantna funkcionalnost
Kompanija OpenAI dozvolila je korisnicima svog softvera baziranog na veštačkoj inteligenciji imena DALL-E da “edituje” fotografije i slike koje sadrže ljudska lica. Ranije, ovo nije bilo dozvoljeno jer je kompanija bila zabrinuta oko potencijalne zloupotrebe ovakve funkcionalnosti. Međutim, čelnici su se očigledno predomislili nakon što je rađeno na algoritmu koji automatski uklanja “kreacije” koje sadrže seksualni, nasilni, ili politički sadržaj.
U ovom trenutku, DALL-E omogućava uređivanje i menjanje fotografija na nekoliko načina. Za početak, neophodno je na servere postaviti fotografiju ili vas ili neke druge osobe. Zatim, moguće automatski generisati različite varijante te iste fotografije ili odabrati opciju za izmenu određenih parametara i karakteristika, poput odeće ili frizure, ali i karakteristika samog lica te osobe. Sa jedne strane veoma koristan alat za kreativce i sve one koji se tako osećaju, a sa druge strane i kompanija OpenAI svesna je potencijala za zloupotrebu, pa je tako naglasila kako je sigurnost na visokom nivou i kako se sprečava korišćenje ove tehnologije u svrhe kreiranja “deepfake” fotografija.
Da li je zaštita moguća?
Ultimativni cilj korišćenja ovakvih tehnologija od strane “javnosti” jeste unapređivanje sposobnosti same veštačke inteligencije, ali na jedan oprezan način. Na primer, Stable Diffusion korisnicima dozvoljava slične funkcionalnosti uz mnogo manje ograničenja, što je već dovelo do stvaranja pornografskih sadržaja sa “deepfake” licima poznatih ličnosti.
Kako OpenAI rešava ovakve probleme? Tako što koristi napredne filtere za sprečavanje stvaranja sličnog sadržaja i tako što korisnicima onemogućava postavljanje fotografija drugih osoba na svoje servere bez njihovog odobrenja. Vreme će pokazati koliko će ovakav vid zaštite biti efektan.