2014-05-17 16:23:24

Arkivyskupas Tomasi. Užprogramuotos mašinos kare neturi pakeisti žmogaus sprendimo


Gegužės 13-16 dienomis JTO būstinėje Ženevoje, Konvencijos dėl tam tikrų konvencinių ginklų naudojimo draudimo ar ribojimo kontekste, vyko laisva diskusija dėl taip vadinamųjų „Mirtinų autonominių ginklų sistemų“. Šių ginklų dar nėra mūšių laukuose, tačiau kai kurios šalys yra skyrusius fondus jų tyrimams. Autonominius ginklus reikia skirti nuo per atstumą valdomų ginklų, kaip kad bepiločių lėktuvų, kuriuos šiandien, pavyzdžiui, plačiai naudoja Jungtinės Amerikos Valstijos savo operacijose. Kaip sako pats pavadinimas, pastaruosius, nors ir per atstumą, valdo žmogus, kuris ir priima sprendimus. Tuo tarpu autonominis ginklas pats „priimtų“ sprendimus pagal tai, kaip būtų užprogramuotas.

Robotikos specialistas Ronald Arkin argumentuoja, kad autonominių sistemų naudojimas būtų visokeriopai naudingas. Pirmiausia, kariai nebeturėtų rizikuoti savo gyvybe dėl užduočių, kurias atliktų autonominė sistema. Antra, mašinos suteiktų karinį pranašumą, galėdamos greičiau ir tiksliau atlikti užduotis, nei karys. Dar kitas argumentas – robotas nepatiria tų psichologinių perkrovų, kurias iškenčia karys. Robotas, pavyzdžiui, neprarastų pusiausvyros ir nepradėtų šaudyti iš keršto ar pykčio į civilius. Robotui nebūtų būdingas tas nereikalingas ir beprasmiškas žiaurumas, kuris charakterizuoja žmogų kare, kaip tai dokumentuoja tiek senoviniai, tiek šiandieniniai duomenys. Tad šiuo požiūriu roboto elgesys būtų net etiškesnis už žmogaus elgesį. Galų gale, autonominiai ginklai jau egzistuoja – prieštankinė mina yra vienas iš pavyzdžių.

Tačiau jam oponuoja kitas robotikos specialistas, profesorius Noel S. Sharkey, skeptiškai vertinantis automatinių mirtinų mašinų naudojimo suderinamumą su Tarptautine humanitarine teise. Pasak jo, kariniai robotai negali atskirti kovotojo nuo nekovotojo arba kovotojo, kuris yra sužeistas ar pasiduoda, kitaip tariant, nebekelia grėsmės. Panašiai negali atskirti kovotojo nuo civilio, jei abu apsirengę civiliais rūbais. Neturime būdo programavimo kalba perduoti bendrą suvokimą, kuris asmuo yra kovotojas ir kas jau nebe kovotojas. Panašiai, nesugebame programavimo kalba perduoti žmogiško proporcingumo jausmo, suvokimo koks veiksmas ir kada yra proporcingas bendrame aplinkybių kontekste. Dar vienas argumentas yra atsakomybės nebuvimas. Jei mašina nukaus nekaltą žmogų, kas bus už tai atsakingas? Ne mašina, nes ji neturi moralės jausmo. Gal tada programuotojas ar gamintojas? Žinoma, jie nesutiktų. O galbūt niekas? Tačiau jei niekas, tada pati humanitarinė teisė praranda prasmę. Profesorius Sharkey taip perspėja nepasiduoti „dirbtinio intelekto“ mitui ir vaizdiniui, kuris sukurtas fantastinėje literatūroje ar filmuose, ir kuris nerealistiškai sužmogina mašinas, beveik prilyginant jas pačiam žmogui.

Šventojo Sosto nuolatinis stebėtojas Jungtinių Tautų Organizacijoje Ženevoje arkivyskupas Silvano Tomasi aiškiai parėmė pastarąją pozicija: pasak jo, žmogaus gyvybės ir mirties klausimo palikimas užprogramuotam mašinos sprendimui kelia klausimą apie pačios visuomenės žmogiškumą. Daugybėje sričių autonominių technologijų naudojimas teikia neabejotinos naudos žmonijai, tačiau karas yra visai kita kalba. Arkivyskupas Tomasi pabrėžė, kad autonominių ginklų sistemos turi būti derinamos su Tarptautine humanitarine teise. Tai privaloma, o ne pasirenkama pareiga. Autonominių ginklų sistemos pasižymi etikos deficitu, į jų naudojimo etines pasekmes neturi būti žvelgiama pro pirštus. Šventojo Sosto diplomatas pabrėžė, kad užprogramuoti sprendimai dėl gyvybės ar mirties negali būti prilyginami žmogaus sprendimams, atsižvelgiant į kontekstą ir į tarptautinę humanitarinę teisę. Pavyzdžiui, kur dingtų toks žmogiškas jausmas, kaip gailestingumas, kuris pasirodo ir tarp karo siaubo? Taip, karo kontekste žmogaus sprendimai dažnai nėra tobuli ir teisingi, bet jo sprendimo kokybė nėra pakeičiama ar užprogramuojama. Net jei būtų įmanoma užprogramuoti robotą taip, kad jis sugebėtų atskirti kovotojus nuo nekovotojų ir veikti proporcingai, tai nepakeistų žmogiško sprendimo apie kito žmogaus gyvybę arba mirtį. Dar kitas dalykas – karo robotizavimas rizikuoja sumenkinti visuomenės suvokimą apie karą, apie karo nelaimę.

Arkivyskupas Tomasi taip pat atkreipė dėmesį į ydingas mąstymo schemas. Viena iš tokių, būdingų didžiosioms ir daug resursų turinčioms valstybėms, yra ta, kad jei „mes pirmi nesukursime tokių ginklų, sukurs kiti“. Taip, tokių ginklų sukūrimas gali suteikti laikiną pranašumą. Bet kaip rodo patirtis, netrukus ir kitos didžiosios valstybės pasigamina panašių ginklų, o dar po kurio laiko juos nesunkiai gali nusikopijuoti ar įsigyti ir mažesnės valstybės. Galutinis rezultatas yra tas, kad visi turi daugiau mirtinų ginklų. Asmuo ir jo moralinis sprendimas negali būti pašalintas iš tų situacijų, kai sprendžiamas žmogaus gyvybės ir mirties klausimas, baigdamas dar kartą pabrėžė Šventojo Sosto diplomatas. (Vatikano radijas)








All the contents on this site are copyrighted ©.