Současná etika robotiky se poněkud absurdně řídí postulátem známého sci-fi spisovatele Isaaca Asimova. Jeho tři zákony robotiky se zatím všichni rozhodli dobrovolně respektovat. Které to jsou?
- Robot nesmí ublížit člověku nebo svou nečinností dopustit, aby bylo člověku ublíženo.
- Robot musí uposlechnout příkazů člověka, kromě případů, kdy jsou tyto příkazy v rozporu s prvním zákonem.
- Robot musí chránit sám sebe před poškozením, kromě případů, kdy je tato ochrana v rozporu s prvním nebo druhým zákonem.
Jenže existují situace, kdy stroje přesto lidem ublíží, nebo dokonce budou muset ublížit.
Jako první na ně narazil automobilový průmysl a představují hlavní problém, který teď brání zavedení autonomních aut. A kdy tedy stroj bude muset člověku ublížit? Třeba když dojde na situaci, kdy před auto vběhne malé dítě a stroj se bude muset rozhodnout, zda dítě srazit a zachránit posádku, či strhnout řízení, zachránit dítě a ohrozit posádku.
A teď nastává problém, pro co se rozhodnout a jestli brát v potaz, že v autě jede jeden dospělý, dva dospělí, dva dospělí a tři děti a podobně.
První odpovědi z Německa
Právě dilema „koho zabít“ zkusilo jako první rozseknout německé Spolkové ministerstvo dopravy. To dalo dohromady etickou komisi pro autonomní řízení v čele s profesorem Udo Di Fabiem ze Spolkového ústavního soudu, která loni v červenci prezentovala první výstupy své práce. Výstupem je prvních 20 etických pravidel.
Tato zpráva přichází s poměrně zajímavými konstatováními. Třeba že odpovědnost za autonomní řízení a jeho nastavení musí nést veřejný sektor nebo že člověk má mít vždy možnost rozhodnout se sám, a to i v rozporu s vůlí umělé inteligence.
Němci také rozhodli výše předloženou zásadní etickou otázku, koho má stroj zabít. V případě nevyhnutelné nehody je jakékoliv rozlišování mezi jednotlivci založené na osobních charakteristikách – věku, pohlaví, fyzické či psychické konstituci – naprosto nepřípustné.
Autonomní auto s dvěma dospělými tak raději obětuje dítě, které před něj vběhne. Stroj má tedy rozhodnout patrně odlišně, než by to udělala velká část řidičů. (Kompletní text zprávy etické komise v anglickém jazyce naleznete zde).
Nejen autononomní auta
Jenže etika autonomních a učících se strojů jde ještě mnohem dál. Pokud dnes jakýkoliv stroj fungující podle pevně daného programu způsobí škodu a jeho obsluha dodrží veškeré instrukce k jeho ovládání, nese za ni odpovědnost výrobce.
VÍCE K TÉMATU:
Roman Sysel (Taxify): Za pár let budou mít lidé řízení aut zakázané
Recept na dopravní zácpy? Ohlídejte si i odstup aut jedoucích za vámi
Může etika zabrzdit nástup umělé inteligence do našeho světa?
U učícího se stroje je tohle značně problematické. Jde totiž o to, kdo ho jak učil. Ostatně zpráva o incidentu s rasistickou umělou inteligencí, která se učila jen z lidské komunikace na internetu, proběhla letos i českými médii.
Byť ji její „výrobce“ stáhl, stihla být mezitím „zlá“ na spousty lidí. Proto Němci překvapivě říkají, že právní odpovědnost by neměl nést ani výrobce, ani ten, kdo stroj učí, ale stát.
A co průmysl?
V případě firemní sféry je to velice důležitá otázka. Autonomní učící se stroje, které jsou hnacím motorem Průmyslu 4.0 totiž budou mít možnost měnit kapacitní plány výroby v závislosti na tom, co se ve výrobě děje – tedy třeba na tom, které stroje hlásí poruchu, případně potřebují údržbu.
UŽ JSTE SI OBJEDNALI?

|
|
Jenže co když rozhodnou špatně a výrobu zastaví či zdrží? Třeba proto, aby ochránily část strojů před zničením. Kdo ponese zodpovědnost? Firma, které stroje patří, firma, jež je vyrobila, nebo se s tím snad bude muset smířit zákazník? Anebo škody pokryje stát?
A co v případě umělé inteligence nasazené pro řízení podniku, například pro optimalizaci logistiky?
Kdo ponese zodpovědnost za to, když umělá inteligence na základě regresních analýz a dalších statistických nástrojů určí, že pro další sezonu je potřeba mít 80 procent svetrů v červené barvě, ale „in“ začne být modrá?
Čekají nás těžká dilemata
V současné praxi nesou finální odpovědnost manažeři nebo lidé, kteří rozhodnou na základě výsledků nějaké analýzy.
V budoucnu, s nástupem autonomních aut či nové „robotické etiky“, to možná bude jiné. Tak či onak nás strojové učení postaví před celou řadu nových dilemat, jež budeme muset vyřešit. Zdaleka ne všechna jsou přitom na první pohled zřejmá jako ta v případě autonomních vozidel.
Umělá inteligence, etika strojů a odpovědnost. 1. 2. 2018 (Komentář k článku na https://www.peak.cz)
Vypadá to na neřešitelné dilema „koho zabít“ v neodvratitelné kolizní situaci. Člověk, vybaven svými nepřesnými senzory a omezenou reakční dobou, nějak zareaguje, někdy vůbec nijak. Stroj má výhodu v rychlosti, spolehlivosti a může mít předem vyhodnocené varianty řešení. Člověk řeší pod časovým tlakem, ve stresu, intuitivně, bez možnosti domyslet důsledky a tudíž i úplně špatně. Rozhodování je ošidné, i kvalitní manažeři chybují až v polovině svých rozhodnutí.
Takže ono dilema nebude zas tak složité. Stroj už je dokonalejší, nastavme mu parametry na minimalizaci následků a nechme to na něm. Selhání lidského faktoru je častější, než selhání stroje. Umělá inteligence už dnes leccos dokáže, vyvíjí se a zdokonaluje. Ač to zní hrozivě, vizionáři už dávno tvrdili, že vyšší forma hmoty překoná a nahradí tu dnešní, to je člověka.