Vojni roboti-ubice u vrlo bliskoj budućnosti
Istraživači na polju veštačke inteligencije upozorili su nedavno da je tehnologija toliko uznapredovala da će upotreba smrtonosnih autonomnih oružanih sistema biti moguća već za nekoliko godina
Ko ne bi pomislio da je tehnologija ovde upotrebljena na dobar način?
Zapravo, prilično veliki broj ljudi, među kojima i mnogi stručnjaci na polju veštačke inteligencije (VI), s najviše znanja o tehnologiji potrebnoj da se ovo oružje stvori.
U otvorenom pismu objavljenom prošlog jula, grupa istraživača na polju veštačke inteligencije upozorila je da je tehnologija toliko uznapredovala da će upotreba smrtonosnih autonomnih oružanih sistema (neprimereno nazvanih Laws - Lethal Autonomous Weapons Systems) biti moguća već za nekoliko godina, a ne decenija. Za razliku od nuklearnog oružja, ovakvi sistemi mogu se masovno proizvoditi veoma jeftino i tako postati „kalašnjikovi sutrašnjice“.
„Biće samo pitanje vremena kad će se pojaviti na crnom tržištu i dospeti u ruke terorista, diktatora koji žele da kontrolišu svoje stanovništvo, gospodara rata koji žele da izvrše etničko čišćenje“, kažu istraživači.
„Počinjanje trke u vojnom VI naoružavanju je loša ideja i trebalo bi je sprečiti zabranom ofanzivnog autonomnog oružja bez značajne ljudske kontrole.“
SAD su se generalno već odrekle upotrebe ofanzivnog autonomnog oružja. Ranije prošlog meseca, Ujedinjene nacije su u Ženevi održale još jedan krug razgovora između 94 vojne sile kako bi se sačinio međunarodni sporazum koji bi ograničio njihovu upotrebu.
Glavno obrazloženje je moralne prirode: dati robotima ovlašćenje da ubijaju ljude značilo bi pregaziti crvenu liniju koja se nikada ne bi smela preći.
Džodi Vilijams (Jody Williams), dobitnik Nobelove nagrade za kampanju protiv nagaznih mina i portparol Kampanje za zabranu robota-ubica, kaže da je autonomno oružje strašnije od nuklearnog.
„Kuda to ide čovečanstvo ako neki ljudi misle da je u redu prepustiti mašini moć odlučivanja o ljudskom životu i smrti?“
Postoje pak i druge dileme osim onih čisto moralnih. Da li bi upotreba robota-ubica smanjila ljudske žrtve i time povećala verovatnoću sukoba? Kako se povećanje broja ovakvih sistema može zaustaviti? Ko bi bio odgovoran kad bi nešto krenulo po zlu?
Moralni argument protiv robota-ubica potpuno je jasan s filozofskog aspekta, ali je problem što je teže uočiti moralne granice ako ih posmatrate u kontekstu već izvesne upotrebe ovih robota „u magli rata“. Roboti (s ograničenom autonomijom) već se koriste na ratištima za uklanjanje bombi, mina i kod antiraketnih sistema, a njihova upotreba se drastično proširuje.
Centar za novu američku bezbednost (CNAS) ocenjuje da će godišnja globalna potrošnja novca na vojne robote dostići 7,5 milijardi dolara do 2018, u odnosu na 43 milijarde dolara, koliko se predviđa da će biti potrošeno na komercijalne i industrijske robote. Trust mozgova sa sedištem u Vašingtonu podržava širu upotrebu ovih sistema, tvrdeći da mogu znatno poboljšati „sposobnost boraca da steknu odlučujuću prednost nad neprijateljima.“
Koristeći suvoparne termine koje toliko voli, industrija oružja pravi razliku između različitih nivoa autonomije robota. Prvi nivo, koji opisuje kao „humans-in-the-loop“, obuhvata dronove-predatore, koje često koriste snage SAD i drugih zemalja. Iako dron može da identifikuje metu, ipak je potrebno da čovek pritisne dugme kako bi robot napao. Kao što je slikovito prikazano u filmu „Pogled s neba“ (Eye in the Sky), takve odluke mogu biti mučne u moralnom smislu jer je potrebno pronaći balans između važnosti gađanja vitalnih meta i opasnosti od civilnih žrtava.
U drugi nivo autonomije spadaju sistemi pod nazivom „humans-on-the-loop“, u kojima ljudi nadgledaju robotizovane oružane sisteme, poput protivavionskih baterija. Ali s obzirom na brzinu i intenzitet modernog ratovanja, postavlja se pitanje da li takva vrsta ljudskog nadzora znači i efektivnu kontrolu.
Treća vrsta sistema pod nazivom „humans-out-of-the-loop“, kao što su dronovi koji su u potpunosti autonomni, predstavlja potencijalno najsmrtonosniji tip, ali ga je verovatno i najlakše zabraniti.
Svakako da treba pozdraviti to što su istraživači na polju veštačke inteligencije doveli ovu debatu u centar pažnje. Stručnjaci za kontrolu naoružanja takođe imaju korisnu, ali frustrirajuće sporu ulogu u definisanju ovog problema i iznalaženju načina da se on reši. „Ovo je važna diskusija“, kaže Pol Šar (Paul Scharre), viši saradnik u CNAS. „Ali to je izuzetno spor proces.“
Kao i u mnogim drugim oblastima, naša društva se upiru da shvate tehnološku realnost koja se tako brzo menja, a ipak je sve manje kontrolišu.
John Thornhill