29. Maja 2023.

Prijeti nam totalno uništenje čovječanstva?

Ovaj napredak mnogi već smatraju tehnološkom revolucijom uporedivom sa pronalaskom točka i parne mašine.

Ali, s druge strane, sve je više naučnika, tehnoloških stručnjaka i mislilaca koji upozoravaju na ozbiljnost pretnji koje veštačka inteligencija može da predstavlja čovečanstvu. Najizraženiji problem je razvoj tzv “smrtonosni autonomni sistemi oružja“ ili “roboti ubice“, sistemi oružja koji koriste veštačku inteligenciju za identifikaciju, odabir i ubijanje ljudskih ciljeva bez ljudske intervencije.

Treća revolucija u ratovanju

Mnogi poznati ljudi iz sveta nauke i tehnologije već godinama upozoravaju na opasnosti koje razvoj ovakvog oružja može predstavljati po ljudski rod, ukoliko ono ne bude zabranjeno ili regulisano, među kojima je i britanski fizičar i kosmolog Stiven Hoking, dr – osnivač Majkrosofta, jedan od najpoznatijih preduzetnika i filantropa Bil Gejts i suosnivač i izvršni direktor nekoliko inovativnih kompanija, uključujući SpaceKs, Tesla i Neuralink, Elon Mask.

Oni su više puta izražavali zabrinutost u medijima, peticijama i otvorenim pismima da bi roboti ubice mogli postati ozbiljna pretnja čovečanstvu, možda čak i veća od nuklearnog oružja.

Oni su 2015. godine, zajedno sa suosnivačom Apple-a Stivom Voznjakom, lingvistom i filozofom MIT-a Noamom Čomskim, Google-ovim šefom veštačke inteligencije Demisom Hasabisom, stručnjakom za svest i filozofom Danielom Dennettom i fizičarom i kosmologom Maksom Tegmarkom, bili među tehnološkim stručnjacima iz oblasti veštačke inteligencije i robotike koji su potpisali otvoreno pismo pod nazivom “Autonomno oružje otvoreno pismo: istraživači veštačke inteligencije i robotike“ upućeno UN. U pismu, koje je do danas potpisalo skoro 35.000 ljudi, razvoj autonomnog smrtonosnog oružja opisuje se kao treća revolucija u ratovanju, nakon pronalaska baruta i nuklearnog oružja.

Autori pisma, koje je inicirao Institut za budućnost života, navode da je ključni argument u raspravama o ovom oružju da će ono s jedne strane smanjiti ljudske žrtve, a s druge da će sniziti prag za ratovanje.

“Ključno pitanje danas je da li će čovečanstvo započeti globalnu trku u naoružanju veštačkom inteligencijom ili će sprečiti njeno pokretanje. Ako bilo koja velika vojna sila nastavi da razvija AI oružje, globalna trka u naoružanju je skoro neizbežna, a krajnja tačka ove tehnološke putanje je očigledno: autonomno oružje će postati kalašnjikovi sutrašnjice. Za razliku od nuklearnog oružja, ono ne zahteva skupe ili teško dostupne sirovine, tako da će postati sveprisutno i jeftino za masovnu proizvodnju za sve velike vojne sile.

Biće samo pitanje vremena kada će se pojaviti na crnom tržištu i u rukama terorista, diktatora koji žele bolje da kontrolišu svoje stanovništvo, ratnih vođa koji žele da izvrše etničko čišćenje, itd. Autonomno oružje je idealno za zadatke kao što su atentati, destabilizacija naroda, potčinjavanje stanovništva i selektivno ubijanje određene etničke grupe. Stoga verujemo da vojna trka u naoružanju sa veštačkom inteligencijom ne bi bila od koristi čovečanstvu. Postoji mnogo načina na koje veštačka inteligencija može da učini bojna polja bezbednijim za ljude, posebno za civile, bez stvaranja novih oruđa za ubijanje ljudi“, upozorili su autori, podsećajući na pismo UN koje su 1955. godine poslali fizičar Albert Ajnštajn i britanski filozof Bertrand Rasel pod nazivom za nuklearno razoružanje i međunarodnu kontrolu nuklearnog oružja.

Međutim, velike sile poput SAD, Rusije i Kine još nisu pristale da regulišu razvoj autonomnog naoružanja, već samo da se pridržavaju nekog okvirnog kodeksa jer se plaše da bi im nametanje pravila moglo dovesti do vojno-strateškog nazadovanja.

Autonomno oružje nije SF

Dok termin “roboti ubice” podseća na neke sofisticirane kreacije iz daleke budućnosti i naučno-fantastične filmove kao što je Terminator, naziv “autonomno smrtonosno oružje” jasnije pokazuje da se definicija odnosi na sisteme koji su već na dohvat ruke.

Sjedinjene Države, Kina, Izrael, Južna Koreja, Rusija i Velika Britanija već razvijaju sisteme naoružanja sa značajnom autonomijom u kritičnim funkcijama odabira meta i napada. Već postoji više od stotinu autonomnih sistema naoružanja u deset zemalja širom sveta.

Na primer, izraelski sistem Harpi, autonomni sistem za uništavanje radarskih ciljeva, može da prepozna radarske signale i samostalno napada njihove izvore. Britanski sistem Taranis, prototip autonomne borbene bespilotne letelice, može da izvršava različite misije sa velikih visina, uključujući napade na ciljeve.

U martu 2021, Grupa eksperata UN za Libiju izvestila je da je Turska tamo možda koristila autonomno oružje STM Kargu-2, koje je „programirano za napad na ciljeve bez potrebe za vezom podataka između operatera i municije“.

Podijeli vijest na:

Pretplata
Obavijesti o
guest

0 Komentara
Najstariji
Najnoviji Najviše glasova
Inline Feedbacks
Pregledaj sve komentare