Odpovědnost umělé inteligence za škodu v českém právu

Odpovědnost umělé inteligence za škody

Odpovědnost umělé inteligence a právní postavení systémů AI

Umělá inteligence (AI) je dnes všude. Je to náš digitální pomocník, který dokáže řídit auto, radit s investicemi nebo automatizovat práci. Co se ale stane, když se AI splete a způsobí někomu škodu? Zásadní je, že AI systémy nemají právní osobnost, a tudíž nemohou být samostatnými nositeli práv a povinností.

Současné české právo na odpovědnost za škodu způsobenou umělou inteligencí nemá zvláštní právní úpravu. Proto se musí vycházet z obecných principů deliktního práva. To znamená, že odpovědnost za škodu způsobenou umělou inteligencí se musí vždy vztahovat k fyzickým nebo právnickým osobám, které s AI systémem nakládají, provozují nebo uvedly na trh.

Klíčovým problémem je takzvaná “mezera v odpovědnosti” u autonomních systémů, kdy tradiční princip přičitatelnosti nelze jednoduše aplikovat na systémy schopné nezávislého rozhodování. Důvodem je jejich autonomie, ztráta dohledu nad technologií a potenciální nepředvídatelnost chování. S postupující automatizací proto klesá význam subjektivní odpovědnosti založené na zavinění a narůstá potřeba objektivní odpovědnosti.

 

AI jako pomocník – objektivní odpovědnost uživatele

Pokud používáte AI systém při své práci, plnění povinností nebo výkonu podnikatelské činnosti, lze na něj analogicky aplikovat ustanovení o odpovědnosti za pomocníka. Podle občanského zákoníku, kdo při své činnosti použije zmocněnce, zaměstnance nebo jiného pomocníka, nahradí škodu jím způsobenou stejně, jako by ji způsobil sám. Pokud AI systém v rámci takového použití způsobí škodu, jeho uživatel nebo provozovatel za ní odpovídá obdobně, jako by škodu způsobil osobně. Stejně tak platí, že pokud někdo využije AI systém k plnění svých smluvních povinností, odpovídá, jako by plnil sám.

V kontextu využívání AI v pracovním procesu je klíčové, aby zaměstnanci byli řádně seznámeni s postupy a riziky spojenými s používáním AI systémů a aby zaměstnavatel zajistil dostatečný dohled a školení.

 

AI jako vadný výrobek a odpovědnost výrobce

Objektivní odpovědnost výrobce za škodu způsobenou vadou výrobku je významnou oblastí. Klíčovou otázkou je, zda lze AI software kvalifikovat jako “výrobek”. V tomto ohledu je důležitá revidovaná směrnice o odpovědnosti za vadné výrobky (PLD), která byla přijata do práva EU v říjnu 2024 a explicitně zahrnuje software, včetně AI systémů, pod definici “výrobku”. Výrobek je vadný, není-li tak bezpečný, jak to od něho lze rozumně očekávat. Směrnice rovněž rozšiřuje koncept vadnosti tak, aby zohledňovala i softwarové chyby nebo selhání systémů AI.

 

AI v rizikových oblastech – zvláště nebezpečné zařízení

Pro určité typy AI systémů může být relevantní objektivní odpovědnost provozovatele zvláště nebezpečného zařízení. Toto ustanovení by se mohlo uplatnit například u autonomních vozidel, průmyslových robotů nebo AI systémů v kritické infrastruktuře. Provoz je zvlášť nebezpečný, nelze-li předem rozumně vyloučit možnost vzniku závažné škody ani při vynaložení řádné péče. U autonomních vozidel navíc platí objektivní odpovědnost provozovatele dopravy. V tomto případě není rozhodující, zda vozidlo v době nehody řídila osoba nebo autonomní systém – odpovědný je provozovatel vozidla.

 

Evropská regulace, dokazování a pojištění

Významným milníkem je evropský Akt o umělé inteligenci (AI Act), který sice přímo neupravuje odpovědnost, ale zvyšuje odpovědnost subjektů tím, že stanovuje jasné povinnosti týkající se transparentnosti, řízení rizik a informování uživatelů. Porušení těchto povinností může být relevantní pro posouzení zavinění v případech odpovědnosti za škodu.

V praxi je však identifikace odpovědné osoby a prokázání zavinění, příčinné souvislosti a výše škody komplikované, zejména kvůli složitosti a neprůhlednosti AI systémů. Zde pomáhá revidovaná směrnice o odpovědnosti za vadné výrobky, která poškozeným umožňuje domáhat se náhrady škody v režimu objektivní odpovědnosti, čímž nemusí prokazovat zavinění výrobce.

S rostoucím využíváním AI systémů narůstá význam pojištění odpovědnosti, které může pomoci zmírnit finanční dopady škod. Pro zajištění dostatečné ochrany je klíčové, aby si subjekty pečlivě zkontrolovaly stávající pojistné smlouvy a zvážily změny související s AI, protože pojišťovny začínají zavádět specifické výluky pro AI.

 

Řešíte odpovědnost umělé inteligence? Obraťte se na specialisty!

Současné české právo vychází z tradičních institutů deliktního práva. Aplikace těchto obecných principů na autonomní a nepředvídatelné AI systémy představuje výzvu, zejména pokud jde o prokazování zavinění, příčinné souvislosti a určení odpovědné osoby. Sami to nezvládnete, a my jsme specialisté, kteří vám pomohou situaci pochopit a najít řešení.

 

Autor: Matěj Šedivý, právní praktikant a Mgr. Petr Uklein, vedoucí advokát v ModerniPravnik.cz

Napište našim odborníkům, pomůžeme vám!

Advokat 1
Advokat 2
Advokat 3
Advokat 4
Advokat 5
Advokat 6
Advokat 7
Neváhejte se s námi podělit o svou situaci a stručně popsat, s čím vám můžeme pomoci. Sdělte nám, jak vás můžeme nejlépe kontaktovat, a náš tým se vám obratem ozve s návrhem řešení. Pro vaši lepší orientaci doporučujeme se předem seznámit s naším ceníkem služeb.

Ještě nejste rozhodnuti? Přečtěte si, co říkají naši klienti!