5. Aprila 2023.

Predlažu se preventivni nuklearni udari: Da li je kraj čovječanstva sve bliže?

Teško je proceniti u kojoj je meri intelektualno zabavna, a u kojoj zastrašujuća brzina kojom se razvija rasprava za i protiv veštačke inteligencije.

Pri tome treba obratiti pažnju da se veštačka inteligencija trenutno (barem za sada) prihvata miroljubivo, dok su pojedini eksperti za temu veštačke inteligencije već počeli da predlažuti nuklearne udare kako bi se hitno zaustavio njen razvoj. Nejasno je kako bi na to trebalo da odgovore pobornici razvoja veštačke inteligencije; nuklearnim udarima ili pak konvencionalnim istragama te hapšenjima? Isto tako treba primetiti kako je narastao broj onih koji zagovaraju teorije smaka sveta koji će namerno ili greškom uzrokovati veštačka inteligencija. Čeka li uveštačku pamet istorijsko razdoblje as kakvim se suočavala ljudska u doba inkvizicije ili se tu ipak radi samo o ‘dobrom starom‘ sukobu čoveka protiv čoveka? Koliko je AI uopšte opasna?

Ekspert za veštačku inteligenciju (AI) Eliezer Judkovski između ostalog je u časopisu Time predložio preventivne nuklearne napade na tzv. CPU klastere – velike ‘farme‘ kompjutera presudne za funkcionisanje AI rešenja – ukoliko se moratorijum na razvoj veštačke inteligencije ne osigura uobičajenim političkim i diplomatskim putem. Pre toga bi pokušao konvencionalni zračni vojni napad na kompjuterske ‘farme‘ države koja odbije da zaustavi razvoj AI, ali moramo biti sigurni “..da su savezničke nuklearne zemlje spremne da se izlože određenom riziku nuklearne razmene ako je to ono što je potrebno za smanjenje rizika od razvoja AI-ja”.

Judkovski, inače američki teoretičar donošenja odluka koji se u filozofiji bavi etikom svojevoljno je popularizovao ‘prijateljsku‘ AI te je suosnivač i istraživač Machine Learning Research Instituta u Berkeleju, a njegov rad na pitanju eksplozije uticaja AI-a imao je značajan uticaj na slavnu knjigu Nika Bostroma “Superintelligence: Paths, Dangers, Strategies”.

Koliko god se ne čini inteligentnim predlagati preventivni nuklearni napad na, recimo, Kinu, ukoliko ne pristane na hipotetički međunarodni sporazum o zaustavljanju razvoja veštačke inteligencije, za Judkovskog se ne može reći da nije dobro upućen, nego čak da raspolaže viškom informacija. Pa ipak, ostaje dosledan oko teze kako bi čovečanstvo zbog veštačke inteligencije trebalo biti spremno na najradikalnije poteze.

Upitan na društvenim mrežama da li bi odobravao nuklearni napad na AI infrastrukturu, on je samo potvrdio kako bi prvo ipak krenuo sa konvencionalnim zračnim napadom.

Tek kada je dobio više javnih kritika zbog zazivanja nuklearnog obračuna kako bi se po svaku cenu zaustavila veštačka inteligencija, Judkovski je putem Tvitera poručio kako njegov članak u Time-u ne sugeriše nuklearne udare, iako je potpuno jasno da ih je eksplicitno predlagao.

Ukratko, Judkovski se toliko boji AI-a da svima objašnjava kako je njeno širenje Zemljom jednako smrti svih ljudi, što je pak teško ostvariti bez nuklearne razmene.

Dodajmo i činjenicu da Judovski nije usamljen u tezi da je brzi razvoj veštačke inteligencije previše opasan. Veliki broj najuglednijih naučnika-istraživača i poslovnih lidera, među kojima i Ilon Mask, već su potpisalo otvoreno javno pismo koje traži zaustavljanje razvoja AI na najmanje šest meseci.

Podijeli vijest na:

Pretplata
Obavijesti o
guest

0 Komentara
Najstariji
Najnoviji Najviše glasova
Inline Feedbacks
Pregledaj sve komentare