Nakon maratonske 72-časovne debate, zakonodavci Evropske unije u petak su postigli istorijski dogovor o svom ekspanzivnom zakonu o razvoju bezbjednosti zakona o vještačkoj inteligenciji, najširem i najdalekosežnijem te vrste do sada. Detalji samog zakona nisu bili odmah dostupni.
Zakon kao standard svima u svetu
„Ovaj zakon će predstavljati standard, model za mnoge druge jurisdikcije“, rekao je za Vašington post Dragoš Tudorače, rumunski poslanik koji je ko-predvodio pregovore o zakonu o veštačkoj inteligenciji, „što znači da moramo imati dodatnu obavezu da briga kada ga napravimo jer će to uticati na mnoge druge.”
Predloženi propisi bi diktirali načine na koje bi se budući modeli mašinskog učenja mogli razvijati i distribuirati unutar trgovinskog bloka, utičući na njihovu upotrebu u aplikacijama u rasponu od obrazovanja preko zapošljavanja do zdravstvene zaštite. Razvoj veštačke inteligencije bio bi podeljen između četiri kategorije u zavisnosti od toga koliki društveni rizik svaka potencijalno predstavlja – minimalan, ograničen, visok i zabranjen.
Zabranjene upotrebe bi uključivale sve što zaobilazi volju korisnika, cilja na zaštićene društvene grupe ili pružanje biometrijsko praćenje u realnom vremenu (kao što je prepoznavanje lica). Visokorizične upotrebe obuhvataju sve što je „namenjeno da se koristi kao bezbednosna komponenta proizvoda“ ili što treba da se koristi u definisanim aplikacijama kao što su kritična infrastruktura, obrazovanje, pravna/sudska pitanja i zapošljavanje zaposlenih. Chatbotovi kao što su ChatGPT, Bard i Bing bi spadali pod metriku „ograničenog rizika“.
„Evropska komisija je ponovo istupila na hrabar način kako bi se pozabavila novim tehnologijama, baš kao što je to učinila sa privatnošću podataka kroz GDPR“, rekla je dr Brandie Nonnecke, direktorka laboratorije za CITRIS Policy.. „Predložena uredba je prilično interesantna po tome što napada problem iz pristupa zasnovanog na riziku“, slično onome što je predloženo u kanadskom predloženom regulatornom okviru za veštačku inteligenciju.
Tekuće pregovore o predloženim pravilima poslednjih nedelja poremetile su Francuska, Nemačka i Italija. Oni su odugovlačili razgovore o pravilima koja su vodila kako zemlje članice EU mogu da razviju temeljne modele, generalizovane AI iz kojih se mogu fino podesiti specijalizovanije aplikacije. OpenAI-jev GPT-4 je jedan takav temeljni model, jer se ChatGPT, GPT i druge aplikacije trećih strana obučavaju iz njegove osnovne funkcionalnosti. Tri zemlje su zabrinute da bi strogi propisi EU o generativnim modelima veštačke inteligencije mogli da ometaju napore zemalja članica da ih konkurentno razviju.
EK se ranije bavila rastućim izazovima upravljanja novim tehnologijama veštačke inteligencije kroz različite napore, objavljujući i prvu evropsku strategiju o veštačkoj inteligenciji i Koordinisani plan o veštačkoj inteligenciji 2018. godine, a zatim Smernice za AI od poverenja 2019. godine. Komisija je objavila Belu knjigu o veštačkoj inteligenciji i Izveštaj o implikacijama na bezbednost i odgovornost veštačke inteligencije, interneta stvari i robotike.
U skorije vreme, EK je počela da sarađuje sa članovima industrije na dobrovoljnoj osnovi u izradi internih pravila koja bi omogućila kompanijama i regulatorima da rade po istim dogovorenim osnovnim pravilima.