Arkivyskupas Tomasi. Užprogramuotos mašinos kare neturi pakeisti žmogaus sprendimo
Gegužės 13-16 dienomis JTO būstinėje Ženevoje, Konvencijos dėl tam tikrų konvencinių
ginklų naudojimo draudimo ar ribojimo kontekste, vyko laisva diskusija dėl taip vadinamųjų
„Mirtinų autonominių ginklų sistemų“. Šių ginklų dar nėra mūšių laukuose, tačiau kai
kurios šalys yra skyrusius fondus jų tyrimams. Autonominius ginklus reikia skirti
nuo per atstumą valdomų ginklų, kaip kad bepiločių lėktuvų, kuriuos šiandien, pavyzdžiui,
plačiai naudoja Jungtinės Amerikos Valstijos savo operacijose. Kaip sako pats pavadinimas,
pastaruosius, nors ir per atstumą, valdo žmogus, kuris ir priima sprendimus. Tuo tarpu
autonominis ginklas pats „priimtų“ sprendimus pagal tai, kaip būtų užprogramuotas.
Robotikos specialistas Ronald Arkin argumentuoja, kad autonominių sistemų
naudojimas būtų visokeriopai naudingas. Pirmiausia, kariai nebeturėtų rizikuoti savo
gyvybe dėl užduočių, kurias atliktų autonominė sistema. Antra, mašinos suteiktų karinį
pranašumą, galėdamos greičiau ir tiksliau atlikti užduotis, nei karys. Dar kitas argumentas
– robotas nepatiria tų psichologinių perkrovų, kurias iškenčia karys. Robotas, pavyzdžiui,
neprarastų pusiausvyros ir nepradėtų šaudyti iš keršto ar pykčio į civilius. Robotui
nebūtų būdingas tas nereikalingas ir beprasmiškas žiaurumas, kuris charakterizuoja
žmogų kare, kaip tai dokumentuoja tiek senoviniai, tiek šiandieniniai duomenys. Tad
šiuo požiūriu roboto elgesys būtų net etiškesnis už žmogaus elgesį. Galų gale, autonominiai
ginklai jau egzistuoja – prieštankinė mina yra vienas iš pavyzdžių.
Tačiau
jam oponuoja kitas robotikos specialistas, profesorius Noel S. Sharkey, skeptiškai
vertinantis automatinių mirtinų mašinų naudojimo suderinamumą su Tarptautine humanitarine
teise. Pasak jo, kariniai robotai negali atskirti kovotojo nuo nekovotojo arba kovotojo,
kuris yra sužeistas ar pasiduoda, kitaip tariant, nebekelia grėsmės. Panašiai negali
atskirti kovotojo nuo civilio, jei abu apsirengę civiliais rūbais. Neturime būdo programavimo
kalba perduoti bendrą suvokimą, kuris asmuo yra kovotojas ir kas jau nebe kovotojas.
Panašiai, nesugebame programavimo kalba perduoti žmogiško proporcingumo jausmo, suvokimo
koks veiksmas ir kada yra proporcingas bendrame aplinkybių kontekste. Dar vienas argumentas
yra atsakomybės nebuvimas. Jei mašina nukaus nekaltą žmogų, kas bus už tai atsakingas?
Ne mašina, nes ji neturi moralės jausmo. Gal tada programuotojas ar gamintojas? Žinoma,
jie nesutiktų. O galbūt niekas? Tačiau jei niekas, tada pati humanitarinė teisė praranda
prasmę. Profesorius Sharkey taip perspėja nepasiduoti „dirbtinio intelekto“ mitui
ir vaizdiniui, kuris sukurtas fantastinėje literatūroje ar filmuose, ir kuris nerealistiškai
sužmogina mašinas, beveik prilyginant jas pačiam žmogui.
Šventojo Sosto nuolatinis
stebėtojas Jungtinių Tautų Organizacijoje Ženevoje arkivyskupas Silvano Tomasi aiškiai
parėmė pastarąją pozicija: pasak jo, žmogaus gyvybės ir mirties klausimo palikimas
užprogramuotam mašinos sprendimui kelia klausimą apie pačios visuomenės žmogiškumą.
Daugybėje sričių autonominių technologijų naudojimas teikia neabejotinos naudos žmonijai,
tačiau karas yra visai kita kalba. Arkivyskupas Tomasi pabrėžė, kad autonominių ginklų
sistemos turi būti derinamos su Tarptautine humanitarine teise. Tai privaloma, o ne
pasirenkama pareiga. Autonominių ginklų sistemos pasižymi etikos deficitu, į jų naudojimo
etines pasekmes neturi būti žvelgiama pro pirštus. Šventojo Sosto diplomatas pabrėžė,
kad užprogramuoti sprendimai dėl gyvybės ar mirties negali būti prilyginami žmogaus
sprendimams, atsižvelgiant į kontekstą ir į tarptautinę humanitarinę teisę. Pavyzdžiui,
kur dingtų toks žmogiškas jausmas, kaip gailestingumas, kuris pasirodo ir tarp karo
siaubo? Taip, karo kontekste žmogaus sprendimai dažnai nėra tobuli ir teisingi, bet
jo sprendimo kokybė nėra pakeičiama ar užprogramuojama. Net jei būtų įmanoma užprogramuoti
robotą taip, kad jis sugebėtų atskirti kovotojus nuo nekovotojų ir veikti proporcingai,
tai nepakeistų žmogiško sprendimo apie kito žmogaus gyvybę arba mirtį. Dar kitas dalykas
– karo robotizavimas rizikuoja sumenkinti visuomenės suvokimą apie karą, apie karo
nelaimę.
Arkivyskupas Tomasi taip pat atkreipė dėmesį į ydingas mąstymo schemas.
Viena iš tokių, būdingų didžiosioms ir daug resursų turinčioms valstybėms, yra ta,
kad jei „mes pirmi nesukursime tokių ginklų, sukurs kiti“. Taip, tokių ginklų sukūrimas
gali suteikti laikiną pranašumą. Bet kaip rodo patirtis, netrukus ir kitos didžiosios
valstybės pasigamina panašių ginklų, o dar po kurio laiko juos nesunkiai gali nusikopijuoti
ar įsigyti ir mažesnės valstybės. Galutinis rezultatas yra tas, kad visi turi daugiau
mirtinų ginklų. Asmuo ir jo moralinis sprendimas negali būti pašalintas iš tų situacijų,
kai sprendžiamas žmogaus gyvybės ir mirties klausimas, baigdamas dar kartą pabrėžė
Šventojo Sosto diplomatas. (Vatikano radijas)