Vývoj robotických zbraní a umělých inteligencí nabírá na obrátkách. Nové technologie se objevují jedna za druhou a jak už to tak bývá, spolu s nimi se objevují i obavy z jejich použití. Online portál časopisu Nature před pár dny věnoval prostor etice umělých inteligencí, ke které se vyjádřila čtveřice expertů. Jedním z nich byl i specialista na umělé inteligence Stuart Russell z Kalifornské univerzity v Berkeley, který se zajímá o autonomní zbraňové systémy.
Podle Russella teď komunity vědců vyvíjejících umělé inteligence a roboty stojí před významným etickým rozhodnutím – zda podpořit anebo odmítnout vývoj smrtících autonomních zbraňových systémů (LAWS, Lethal Autonomous Weapons Systems). Očekávání jsou prý velmi vysoká, mnozí považují systémy LAWS za třetí zásadní revoluci ve vojenských technologiích – po střelném prachu a jaderných zbraních.
Smrtící autonomní systémy jsou takové, které si vyberou cíle a zaútočí na ně bez účasti lidského operátora. Nejsou to tedy automaticky naváděné křižující střely, ani bojové drony, o jejichž cílech rozhodují pozemní operátoři, mohou to ale být třeba kvadrikoptéry vyzbrojené smrtící zbraní, které by vyhledávaly a dle svého uvážení likvidovaly nepřátelské bojovníky v městské zástavbě.
Není to prý žádné sci-fi. Všechny klíčové komponenty takových technologií už existují a stačí je jenom vhodně spojit dohromady. Smrtící autonomní systémy se tak mohou objevit za pár let a vzhledem k současné geopolitické situaci spíš dřív, nežli později. Russell upozorňuje, že hned dva programy vojenských vývojářů DARPA dávají tušit použití systému LAWS. Program Fast Lightweight Autonomy (FLA) podporuje vývoj malých vrtulníkových dronů, které by měly autonomně létat v hustě zastavěných oblastech a dokonce i uvnitř budov. V programu Collaborative Operations in Denied Environment (CODE) se zase vyvíjejí autonomní drony, které by měly zvládnout všechny fáze útočné mise za situace, kdy elektronický úder protivníka vyřadí komunikaci mezi dronem a pozemním operátorem.
Russell se jako specialista na umělé inteligence zúčastnil nedávného setkání expertů na LAWS ve švýcarské Ženevě, které se odehrálo pod taktovou Úmluvy o některých konvenčních zbraních (CCW, Convention on Certain Conventional Weapons). Dotyčná Úmluva, která omezuje užívání zbraní způsobujících nadměrné utrpení či nerozlišujících při svých účincích, v tuto chvíli zahrnuje protokoly omezující 1. tříštivé zbraně, 2. nástražné miny, 3. zápalné zbraně, 4. oslepující laserové zbraně a 5. výbušné zbytky z války (zejména kazetovou munici).
V debatě expertů šlo o to, jestli by měl být vytvořen šestý protokol Úmluvy CCW, který by se věnoval autonomním smrtícím systémům. Podle všeho se tam střetávaly především dva pohledy. Podle prvního z nich by se systémy LAWS měly zařadit do stejné kategorie jako biologické a chemické zbraně a tím pádem kompletně a preventivním účinkem zakázat. Druhý pohled byl pragmatický a navrhuje zařadit autonomní smrtící systémy do stejné kategorie jako přesně naváděnou munici a regulovat jejich používání.
Nevládní organizace jako Amnesty International, Human Rights Watch nebo Women's International League for Peace and Freedom nedávno spustily kampaň proti vražedným robotům Campaign to Stop Killer Robots. Dožadují se v ní preventivního totálního zákazu systémů LAWS, podobného zákazu oslepujících laserů a zákazu protipěchotních min. Argumentují tím, že pověřovat roboty zabíjením lidí je zcela nemorální.
Mnozí s nimi ale zásadně nesouhlasí. Ron Arkin z Georgijské techniky a další navrhují, že by systémy LAWS měly být považovány za novou generaci chytrých bomb. Autonomní smrtící systémy jsou v porovnání se současnými chytrými bombami přesnější a vlastně důsledněji ctí Mezinárodní humanitární právo (IHL). A když na to přijde, v čem je vlastně morálnější zabíjení lidí lidmi? Autonomní systém jen těžko zpanikaří, nebude se mstít a nesplete cíle kvůli psychickému rozpoložení. Když Ruskem vyslaní separatisté na Ukrajině omylem sestřelili civilní letadlo letu Malaysia Airlines 17 (MH17), bylo to všechno zcela pod lidskou kontrolou.
O lecčem svědčí fakt, že v době setkání expertů na LAWS v Ženevě totální zákaz LAWS podporovala jenom hrstka států, konkrétně Kuba, Ekvádor, Egypt, Pákistán a Svatá stolice. Zbývající země se dohadují o definicích a přiklánějí se spíše k názoru, že systémy LAWS už fakticky jsou regulovány Mezinárodním humanitárním právem (IHL). Pro odpůrce „vražedných robotů“ je kromě toho velmi problematické, že systémy LAWS jsou sestavovány z komponent, které je prakticky nemožné zakázat. Senzory, jako jsou radary, mají široké vojenské i civilní využití, software rozeznávání lidí jako cílů se prakticky neliší od spousty rozmanitých programů, používaných k rozeznávání v mnoha odvětvích a smrtící zbraně, jako například rakety vzduch-země Hellfire, jsou úplně stejné, jako ty, co se odpalují stiskem tlačítka člověkem. Tady už pro zákazy příliš prostoru nezbývá.
Jak se zdá okamžitý zákaz autonomních smrtících systémů není na pořadu dne. Jejich odpůrci by se nicméně měli mít na pozoru, aby nesehráli roli užitečných idiotů ve prospěch zemí, které ve vývoji autonomních smrtících systémů a vůbec dronů citelně zaostávají. V tomto směru existují rozsáhlé zkušenosti ze studené války, kdy Sovětský svaz používal takzvaná protiválečná hnutí jako účinnou zbraň proti Západu.
Autonomous Weapons systems Dangerous killer robots or smarter and less harmful warfare
Literatura
Nature News 27. 5. 2015, Conversation 13. 4. 2015, Wikipedia (Convention on Certain Conventional Weapons, Military robot).
Další fáze revoluce dronů
Autor: Stanislav Mihulka (22.08.2012)
Dopravní letadlo, které létá samo
Autor: Stanislav Mihulka (12.05.2013)
Budou drony námořnictva lovit teroristy anebo bojovat s Čínou?
Autor: Stanislav Mihulka (17.05.2013)
Odtajněn první let britského dronu Taranis
Autor: Stanislav Mihulka (17.02.2014)
Diskuze: