Odpovědnost za autonomní systémy: stávající předpisy, návrhy reformy EU a potřeba inovativních koncepcí

Článek se zabývá potřebou změn mimosmluvní odpovědnosti za škodu v důsledku „technologické revoluce“, kterou představuje digitalizace a automatizace společenských vztahů. Nutnost změn právního řádu v důsledku technologických změn posuzuje autor na rozdíl od jiných expertů, kteří vyvolávali poněkud až hysterickou náladu, věcným, střízlivým způsobem. Řečená technologická revoluce neznamená revoluci v právu. Obdobně jako Evropská komise spatřuje autor řešení tohoto problému v přizpůsobení dosavadního deliktněodpovědnostního systému některým jevům, které jako následky svého působení automatizace, robotizace a další fenomény přinášejí.

Ernst Karner

Článek rozebírá tři návrhy předpisů vypracovaných Evropskou komisí, a to dvou směrnic upravujících odpovědnost za škody způsobené umělou inteligencí, novou verzi směrnice o odpovědnosti za škodu způsobenou vadou výrobku a rovněž návrh nařízení o odpovědnosti za škody způsobené umělou inteligencí při provozu automatizovaných motorových vozidel. Mezi autorovými kritickými poznámkami vyniká jeho postřeh, svědčící o jeho systémovém přístupu, který Evropská komise postrádá. Navrhuje totiž obecnou úpravu objektivní odpovědnosti v případech značného rizika, která by byla rozlišována podle stupně nebezpečí.* /* Článek je přepracovanou verzí jeho přednášky v rámci Fóra Centra právní komparatistiky PF UK, která se uskutečnila 15. 12. 2022, překlad prof. Luboš Tichý/.

Východiska

Dnešní technický pokrok přináší systémy, které autonomně provádějí stále složitější postupy. Tento pokrok se v žádném případě neomezuje jen na „samořídící“ auta či vlaky, ale zahrnuje i autonomní systémy v oblasti medicíny, které mají již dnes velký význam v radiologii.[1] V budoucnosti však budou roboti využíváni i pro lékařské zásahy nebo v sektoru péče. Konečně můžeme uvažovat o autonomních dronech nebo tzv. „exoskeletech“, které umožňují ochrnutým chodit nebo pomáhají pracovníkům při těžké fyzické práci.

Je proto třeba zkoumat, do jaké míry lze při řešení případů odpovědnosti způsobených autonomními systémy používat konvenční právní instrumenty, či zda existuje potřeba zásadní změny. Zejména by se měla řešit odpovědnost za zavinění, odpovědnost za pomocníka, odpovědnost za výrobek a objektivní odpovědnost.[2]

Zaměřím se na návrhy dvou směrnic, které Evropská komise zveřejnila 28. září 2022. Zatímco první návrh se zabývá zpřísněním mimosmluvní odpovědnosti za zavinění při používání umělé inteligence,[3] druhý návrh se týká revize směrnice o odpovědnosti za výrobek.[4] Tento vývoj je třeba v zásadě přivítat. Zejména návrh subjektivní odpovědnosti za umělou inteligenci však bohužel stále trpí značnými nesrovnalostmi.[5] Příspěvek se soustředí na klíčové předpisy a problémy zmíněných návrhů směrnic.

Odpovědnost za zavinění

Dojde-li k poškození autonomním systémem, ve všech evropských právních řádech se aplikuje odpovědnost na základě zavinění. V její struktuře existuje sice mnoho rozdílů,[6] ale vždy jde v podstatě o totéž: odpovědný je ten, kdo škodu způsobil, pokud se nechoval jako pečlivý a řádný účastník života ve společnosti.

V oblasti automatizovaných systémů je důležitým úkolem stanovit příslušné požadavky péče, např. s ohledem na nezbytný dohled. V této souvislosti je třeba poukázat na reformu německého zákona o silničním provozu (Straßenverkehrsgesetz, StVG) z roku 2017,[7] která výslovně stanovila, že uživatel vysoce nebo plně automatizovaného vozidla se smí přestat starat o dopravní situaci a řízení vozidla. Uživatel však musí zůstat dostatečně vnímavý, aby mohl dostát svým závazkům a kdykoli obnovit kontrolu nad vozidlem.[8] Teorie i praxe však toto ustanovení přijaly poměrně kriticky pro jeho vágnost.[9]

Zavádění automatizovaných systémů samozřejmě nevede k žádným neznámým úkolům. Přizpůsobení požadavků péče měnícím se technickým, ekonomickým či sociálním poměrům bylo vždy součástí právnického řemesla. Obecně platí, že čím více je systém autonomní, tím nižší jsou požadavky na náležitou péči kladené na uživatele.[10] Zatímco u neautomatizovaných vozidel (úroveň 0) nese plnou odpovědnost za řízení vozidla řidič, u automatizovaných vozidel se rozložení úkolů stále více přesouvá ve prospěch autonomního systému. V případě plně automatizovaných motorových vozidel (úroveň 5) a dalších vysoce automatizovaných systémů se tak význam subjektivní odpovědnosti výrazně snižuje.[11]

Navzdory tomu začíná Evropská komise se svými návrhy ohledně odpovědnosti za zavinění jen zdrženlivě, a to i v tomto prvním kroku. Podle Evropské komise by se sjednocení předpisů mimosmluvní odpovědnosti za zavinění systémů umělé inteligence mělo uskutečňovat jen prostřednictvím procesní povinnosti žalovaného předkládat důkazy v případech vysoce rizikových systémů umělé inteligence a v případech „určitých důkazních domněnek“. Návrh směrnice v podstatě zavádí dvě zjednodušení v dokazování.[12]

Prvním předpokladem úspěšné žaloby je vždy věrohodný nárok potenciálního žalobce. Domněnky, které platí v každém případě, se však liší podle stupně nebezpečnosti umělé inteligence. Čl. 3 návrhu – předkládání důkazů – se týká pouze tzv. vysoce rizikových systémů umělé inteligence. Tuto kategorii je třeba vnímat ve světle tzv. zákona o umělé inteligenci (AI-Act)[13] ve formě nařízení, které však dosud nebylo přijato.[14]

Podstatné je, že návrh zavádí za určitých okolností procesní povinnost uživatele nebo distributora vysoce rizikových systémů umělé inteligence předložit relevantní fakta o systému umělé inteligence. V případě nesplnění této povinnosti se předpokládá zavinění osoby, na kterou se tato povinnost vztahuje. Je nápadné, že tato sankce – domněnka zavinění – nemusí vždy korespondovat s porušením této povinnosti. Informace, které mají být uveřejněny, by se např. mohly týkat také kauzality, a nikoli zavinění – ale proč by se pak mělo zavinění předpokládat? Navíc stále není jasné, jaké informace mají být vůbec předloženy: všechny informace relevantní pro vznik škody, nebo pouze informace, které je povinná strana podle výše uvedeného zákona o umělé inteligenci povinna evidovat?

Rozhodnutí o použití domněnky zavinění jako sankce za porušení informační povinnosti je čistě procesní záležitostí. Rozhodně by však stálo za zvážení podřídit případná rizika spojená s umělou inteligencí přísnějšímu režimu odpovědnosti a spojit zvýšené riziko odpovědnosti za objektivní porušení povinnosti péče s obrácením důkazního břemene. K tomu následuje podrobnější výklad.

Čl. 4 návrhu rovněž potenciálně zatěžuje každého žalovaného domněnkou kauzality. Kromě věrohodnosti nároku musí žalobce pouze prokázat, že žalovaný pravděpodobně ovlivnil „výstup“ systému umělé inteligence a porušil povinnost ochrany před vzniklou škodou. Domněnka se týká pouze vztahu mezi jeho „zaviněním“ a „výstupem“ umělé inteligence. Pro dokazování, že škoda byla vůbec systémem umělé inteligence způsobena, však nadále platí obvyklá pravidla dokazování. Tyto dvě domněnky by také měly být schopny se navzájem doplňovat, aby domněnka zavinění mohla vyvolat předpoklad kauzality.

Jinak ponechává návrh EU mnoho nezodpovězených otázek. Vzhledem ke zvolené harmonizační strategii je pravděpodobně nevyhnutelné, že účinky návrhu budou do značné míry záviset na obecném standardu dokazování členského státu. Při rozhodování o strategii důkazního břemene je to třeba mít na paměti. V každém případě tyto domněnky představují posun v důkazním režimu. Pokud odůvodnění v preambuli výslovně nemluví o obrácení důkazního břemene, jde zřejmě jen o velmi technický, ale každopádně nejasný výraz.

Obsahově by se však mohlo ukázat problematickým, pokud by pojmy kauzalita a zavinění nebyly chápány jednotně, protože mohou mít v právních řádech Evropy velmi odlišný význam (např. některé právní řády řadí problém přiměřenosti a jiné instituty přičítání do kategorie kauzality, nebo problém poškození zboží a ochranný účel k pojmu „zavinění“).[15] Není proto také zcela jasné, co měla Komise na mysli při vytváření jednotlivých předpokladů.

Konečně užitečnost domněnky kauzality (která již předpokládá porušení povinnosti a prokázání zapojení systému umělé inteligence) se liší podle toho, jak náročný je test kauzality konkrétního právního systému.

Nakonec se návrh ukazuje jako problematický zejména kvůli jeho četným odkazům. Návrh totiž často odkazuje na již zmíněný zákon o umělé inteligenci, jenž je rovněž k dispozici pouze jako návrh, který ještě nebyl přijat. Týká se to např. definice umělé inteligence a umělé inteligence s vysokým rizikem.

Odpovědnost za výrobek

Zatímco význam odpovědnosti za zavinění bude s postupem automatizace klesat, význam harmonizované odpovědnosti za výrobek výrazně poroste.[16] I proto Evropská komise předložila již zmíněný druhý návrh o změně směrnice o odpovědnosti za výrobek.[17]

Níže bych se rád dotkl nejdůležitějších aspektů návrhu souvisejících s automatizací:

a) Otázka, zda má být za výrobek (produkt) ve smyslu směrnice považován i software, je podle současného práva vysoce kontroverzní.[18] Přepracovaný návrh směrnice objasnil, že software je třeba považovat za výrobek (produkt), i když je nabízen pouze jako cloudová služba [čl. 4 (1), bod odůvodnění 12]. To je třeba uvítat, protože je nerozhodné, zda je software zhmotněn na datovém nosiči, nebo ne.[19] Návrh rovněž objasňuje odpovědnost výrobce softwaru za aktualizace, protože ty ponechávají produkt pod „kontrolou“ výrobce [čl. 4 (5)].

b) I po návrhu směrnice zůstávají nejistými pojmy vady výrobku a rozhodné měřítko, které se má použít. Návrh nicméně zavádí nové aspekty o tom, jak je třeba chápat příslušná oprávněná očekávání se zvláštním důrazem na schopnost produktu učit se [čl. 6 (1) c) a jeho použití s jinými produkty (d)].Celkový přístup však není podrobně vysvětlen. Jak Wagner[20] ještě před návrhem změny přesvědčivě ukázal, mluví mnohé pro systémový pojem vady.

c) Navrhovaná směrnice je inovativní na úrovni dokazování: zavádí domněnky a povinnosti uveřejňování, které jsou velmi podobné zjednodušení dokazování v navrhované směrnici o mimosmluvní odpovědnosti za zavinění v případě umělé inteligence. Návrh na změnu směrnice o odpovědnosti za výrobek obsahuje také informační povinnost (čl. 8), která by se však neměla uplatňovat pouze v případě zvláště vysokého rizika, ale spíše obecně prostřednictvím věrohodného prokázání nároku odpovědnosti za výrobek. Vzhledem k tomu, že odpovědnost za výrobek není záležitostí odpovědnosti za zavinění, porušení povinnosti zveřejnit informace by mělo vést k domněnce vadnosti výrobku, ale nikoli k domněnce zavinění [čl. 9 odst. 2 písm. a)].

d) Druhé zjednodušení dokazování má spočívat v doplnění směrnice o odpovědnosti za výrobek o domněnku kauzality [čl. 9 (3)]. Návrh jde o něco dále než odpovědnost za umělou inteligenci. V souvislosti s odpovědností za výrobek by se měla předpokládat příčinná souvislost mezi vadou výrobku a typickou škodou, anikoli jen mezi vadou a „výstupem“ výrobku (umístěním na trh).[21], že podle návrhu textu již nemusí být podíl výrobku na způsobení škody po zjištění vady prokazován podle obecného standardu. Kromě toho však návrhy směrnic vykazují drobné rozdíly v detailech, které nejsou zcela srozumitelné.

e) Třetí obtížně vyložitelné zjednodušení dokazování se uplatní, přispěl-li výrobek ke škodě tím, že byl pravděpodobně vadný a/nebo v důsledku toho byla pravděpodobně způsobena škoda (čl. 9 odst. 4). V těchto případech lze pouze „vycházet“ z kauzality mezi vadou a způsobením škody. Nejspíše lze tuto formulaci chápat jako snížení míry důkazů.[22]

Rovněž nebyla kritizována otázka odpovědnosti za služby.[23] Zde mohou nastat potíže s vymezením, zejména s ohledem na „digitální služby“.[24] Někdy se navrhuje, aby byl koncept odpovědnosti za výrobek rozšířen na služby obecně. Podle mého názoru se zdá mnohem vhodnější znovu přemýšlet o zvýšené podnikatelské odpovědnosti, jak je upraveno v Principech evropského deliktního práva (čl. 4:202 PETL)[25]

Stroje jako pomocníci

Je samozřejmé, že za škody způsobené systémy podporovanými automatizací je třeba nést odpovědnost, pokud jejich příčinu lze vysledovat zpět k neopatrnému lidskému chování (a vztahuje se stejně na chyby při obsluze, monitorování a programování). Zajímavější je otázka, zda lze činnost autonomního systému přičítat člověku, pokud v systému dojde k poruše funkce bez chybného lidského jednání. Tato poměrně složitá problematika není nikterak nová: byla rozebírána již v 80. letech 20. století s ohledem na automatizované zpracování dat významnými představiteli akademické sféry – Canaris, Spiro, Koziol.[26] Klíč k přičítání spočívá v analogické aplikaci pravidel přičítání pomocníků, pokud jsou používány technické pomůcky, které jsou svou funkcí ekvivalentní lidské práci.[27] Pro tento na první pohled téměř revoluční přístup již existují základy v pozitivním právu – např. v Rakousku.[28] Navíc je plně v souladu s obecnými zásadami přičítání pomocníků: nikdo by neměl mít možnost vyhnout se přičítání škody podle ustanovení o odpovědnosti pomocníků pouhým používáním technických pomůcek místo lidských pomocníků.

Na evropské úrovni by bylo vhodné provést dvoufázový postup: V prvním kroku by mělo být jasné, že pravidla o odpovědnosti pomocníků se vztahují i na stroje, které nahrazují člověka. Ve druhé, dlouhodobější etapě by mělo být zváženo sjednocení pravidel o odpovědnosti pomocníků v jednotlivých evropských jurisdikcích.

Objektivní odpovědnost

1. Samořídící auta na pozadí platného mimosmluvního práva

V případě odpovědnosti za samořiditelná auta lze odkázat na to, co bylo dosud řečeno v souvislosti s odpovědností za zavinění a objektivní odpovědností.[29] V daném kontextu se mi jeví jako důležitější strukturální otázka, která se týká vztahu mezi odpovědností založenou na zavinění, objektivní odpovědností a odpovědností za výrobek.[30]

Pokud právní řád – např. německé nebo rakouské právo – stanoví komplexní (objektivní) odpovědnost za motorová vozidla na základě rizika, nepředstavuje odpovědnost za samořiditelná vozidla nový problém. Má-li vada softwaru za následek dopravní nehodu, jde o vadu vozidla, za kterou odpovídá jeho držitel.[31] Protože výrobce odpovídá poškozenému společně a nerozdílně v případě vady výrobku, má držitel (nebo jeho povinné pojištění odpovědnosti) vůči výrobci (nebo jeho pojistiteli) právo na regres. Neexistuje právní nejistota, neboť režim odpovědnosti nevykazuje žádnou mezeru, a poškozený může vždy uplatnit nárok vůči držiteli vozidla.[32] To platí obdobně i pro samořiditelné kolejové vozidlo.

Zcela jiná situace je např. v anglickém právu, které u motorových vozidel zná pouze odpovědnost za zavinění.[33] V případě samořídících vozidel to vede k vážným mezerám v ochraně. Pokud se někdo zraní při dopravní nehodě v důsledku poruchy samořídícího auta, obvykle nelze určit, kdo by měl nést odpovědnost:[34] Výrobce auta kvůli závadě na výrobku? Nebo majitel vozidla, např. proto, že řádně nevyčistil čidla vozidla? Poškozenému v těchto případech nezbývá než podat dvě žaloby, z nichž s jednou jistě neuspěje. Podobný problém vyvstává v těch jurisdikcích, kde se odpovědnost založená na riziku vztahuje pouze na případy, kdy byl poškozený nemotorizovaným účastníkem nehody, neboť se nevztahuje na případy kolize vozidel, jako např. ve Finsku, Nizozemsku a Polsku,[35] nebo které zahrnují jen škody na zdraví, a nikoli na majetku, jako v Belgii, Dánsku nebo Španělsku.[36] Jistě se nyní někdy uznává, že výsledná pozice je pro poškozeného velmi nevýhodná a krajně neuspokojivá z důvodu procesních rizik a nejistot v dokazování. V souladu s tím byla pro anglické právo uzákoněna odpovědnost za autonomní vozidla založená na riziku.[37] Autonomní vozy by tak mohly hrát pro common law stejnou roli, jakou sehrála železniční doprava pro kontinentální Evropu.

Aby se předešlo mezerám v ochraně a nejednotnosti jednotlivých jurisdikcí, vyžaduje se na evropské úrovni komplexní a jednotná objektivní odpovědnost nejen za motorová vozidla, ale také za železniční dopravu.

2. O potřebě obecné úpravy objektivní odpovědnosti

Odpovědnost za samořiditelná auta lze uspokojivě vyřešit, existuje-li komplexní objektivní odpovědnost za motorová vozidla (viz shora). Samozřejmě by se nemělo přehlížet, že autonomní systémy mohou představovat velmi různé úrovně nebezpečí, počínaje automatizovanou sekačkou na trávu přes lékařské roboty až po plně autonomní dopravní zařízení – motorová vozidla, vlaky a letadla.

Vzhledem k rychlému tempu technického rozvoje se zdá nerozumné vytvářet izolovaná individuální pravidla pro různé autonomní systémy. Aby nedocházelo k mezerám v ochraně a nesrovnalostem v hodnocení, je zapotřebí obecná koncepce objektivní odpovědnosti, která je odstupňována podle stupně nebezpečí. Jako příklad může posloužit návrh reformy rakouského práva odpovědnosti za škodu.[38] V případě vysokého rizika se stanoví objektivní odpovědnost, ale v případě jen zvýšeného rizika pouze odpovědnost za porušení péče s obrácením důkazního břemene.

Potřeba elektronické osoby?

V právní diskusi se někdy objevuje otázka, zda by autonomní systémy měly být vybaveny právní způsobilostí, čímž by vznikla „elektronická osoba“.[39] Návrhy tohoto druhu jsou scestné: na jedné straně je třeba respektovat, že zákon slouží k usměrňování lidského jednání a jeho adresáty jsou pouze lidé. Na druhé straně je třeba si uvědomit, že elektronická osoba nedisponuje žádným majetkem a musela by jím být nejprve vybavena. V konečném důsledku by však zavedení „elektronické osoby“ schopné držet majetek a odpovídat vedlo poškozeného do horší pozice, protože by se fond odpovědnosti omezil na zvláštní majetek „e-osoby“.[40] Daleko vhodnější se tedy jeví objektivní odpovědnost vlastníka s jejím povinným pojištěním.

Diskuse o „elektronické osobě“ se tak ukazuje jako omyl, což je dáno v neposlední řadě i tím, že zejména technické novinky mají často za následek nereflektované požadavky na zvláštní právní předpisy, aniž by se předtím důkladně zjistilo, do jaké míry systémově kompatibilní řešení lze rozvíjet na základě existujícího právního stavu.

Závěr

  1. V oblasti mimosmluvní odpovědnosti za zavinění se Evropská komise chystá zavést zjednodušené dokazování v souvislosti se systémy umělé inteligence. Obecně předpokládá věrohodný nárok poškozeného. V případě vysoce rizikové umělé inteligence by měl mít škůdce povinnost předkládat relevantní důkazy, jejíž porušení je sankcionováno domněnkou zavinění. V případě prokázaného (nebo domnělého) zavinění by měla domněnka kauzality platit i v případě škody způsobené systémy umělé inteligence. Návrh Evropské komise ale vykazuje některé nesrovnalosti.
  2. V úpravě odpovědnosti za výrobek bude stanoveno, že tento režim se vztahuje také na software, bez ohledu na to, zda je obsažen v nosiči dat, či nikoli. Návrh směrnice rovněž zavádí podobná zjednodušení dokazování jako návrh směrnice o odpovědnosti v případě umělé inteligence.
  3. Pokud jsou stroje používány jako pomocníci, měla by se pravidla přičítání odpovědnosti pomocníkům vztahovat i na stroje. I to by mělo být v nové úpravě zakotveno.
  4. Problém samořiditelných aut je již v mnoha právních řádech uspokojivě vyřešen, existuje-li komplexní objektivní odpovědnost za škodu způsobenou motorovými vozidly.
  5. Aby se předešlo rozporuplným hodnocením a mezerám v ochraně, je zapotřebí obecné úpravy objektivní odpovědnosti, v níž je rozlišováno podle stupně nebezpečí.
  6. Další vývoj práva odpovědnosti za škodu způsobenou autonomními systémy musí zohledňovat obecnou úpravu práva odpovědnosti.

 

Univ. prof. Dr. Ernst Karner je profesorem univerzity Vídeň a též ředitelem Institutu pro evropské deliktní právo Rakouské akademie věd a Univerzity ve Štýrském Hradci, resp. Evropského centra pro deliktní a pojišťovací právo ve Vídni.

Ilustrační foto: DALL-E3


[1] Podrobně viz E. Karner: Liability for Medical Robots and Autonomous Medical Devices, in E. Karner, U. Magnus, J. Spier, P. Widmer (ed.): Essays in Honor of Helmut Koziol, Jan Sramek Verlag, Wien 2020, str. 57 a násl.

[2] K tomu již E. Karner: Liability for Robotics: Current Rules, Challenges and the Need for Innovative Concepts, in S. Lohsse, R. Schulze, D. Staudenmayer (eds.): Liability for Artificial Intelligence and the Internet of Things, Nomos, Baden-Baden, 2019, str. 117 a násl. Podrobně viz E. Karner, B. A. Koch: Civil Liability for Artificial Intelligence. A Comparative Overview of Current Tort Laws in Europe, in M. A. Geistfeld, E. Karner, B. A. Koch, Ch. Wendhorst (eds.): Civil Liability for Artificial Intelligence and Software, De Gruyter, 2023, str. 21 a násl.

[3] Návrh směrnice Evropského parlamentu a Rady o přizpůsobení pravidel mimosmluvní odpovědnosti za umělou inteligenci (Směrnice o odpovědnosti za UI), COM (2022) 496 v konečném znění; dále „návrh o odpovědnosti AI“.

[4] Návrh směrnice Evropského parlamentu a Rady o odpovědnosti za vadné výrobky, COM (2022) 495 v konečném znění; dále „návrh o odpovědnosti za výrobek“.

[5] Viz G. Wagner: Die Richtlinie über KI-Haftung: Viel Rauch, wenig Feuer, JZ 2023, str. 123 a násl.; G. Wagner: Rules for the Digital Age, Journal of European Tort Law (JETL) 13 (2022), str. 220 a násl.

[6] Viz H. Koziol: Comparative Conclusions, in H. Koziol (ed.): Basic Questions of Tort Law from a Comparative Perspective, Jan Sramek Verlag, Wien 2015, str. 782 a násl.; podrobná analýza různých evropských konceptů viz B. Winiger, E. Karner, K. Oliphant (ed.): Digest of European Tort Law, sv. 3: Essential Cases on Misconduct, De Gruyer, Berlin/Boston 2018.

[7] Zákon, kterým se mění zákon o silničním provozu, BGBl I 2017, 1648, 8.

[8] Srov. § 1b zákona o silničním provozu.

[9] Viz J. Schirmer: Augen auf beim automatisierten Fahren! Die StVG-Novelle ist ein Montagsstück, Neue Zeitschrift für Verkehrsrecht (NZV) 2017, str. 254 a násl.

[10] Viz také J. Pehm: Odpovědnost za provoz autonomních vozidel: Komparativní pohled na výzvy automatizace, in Sborník XXVI. Karlovarské právnické dny, Linde Praha 2018, str. 127 a násl.; J. Pehm: System der Unfallhaftung beim automatisierten Verkehr, Zeitschrift für Internationales Wirtschaftsrecht (IWRZ) 2018, str. 262 a násl.

[11] Viz G. Wagner: Produkthaftung für autonome Systeme, Archiv für die civilistische Praxis (AcP) 217 (2017), str. 707, 708.

[12] Čl. 3 a 4 návrhu o odpovědnosti za UI, viz op. cit. sub 3.

[13] Návrh nařízení Evropského parlamentu a Rady, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci (zákon o umělé inteligenci), COM (2021) 206 v konečném znění.

[14] Kritika k tomuto příliš složitému řetězení viz G. Wagner, JZ 2023, str. 123, 125; G. Wagner, JETL 13 (2022), str. 220.

[15] Viz G. Wagner, JZ 2023, str. 125; G. Wagner, JETL 13 (2022), str. 225.

[16] Viz G. Wagner, AcP 217 (2017), str. 708.

[17] Návrh o odpovědnosti za výrobek, viz op. cit. sub 4; k tomu již G. Wagner: Produkthaftung für das digitale Zeitalter – ein Paukenschlag aus Brüssel, JZ 2023, str. 1 a násl.; G. Wagner, JETL 13 (2022), str. 224.

[18] Viz D. Fairgrieve et al: Product Liability Directive, in P. Machnikowski (ed.): European Product Liability. An Analysis of the State of the Art in the Era of New Technologies, Cambridge University Press, Cambridge 2016, str. 46 a násl.; Ch. Wendehorst, Y. Duller: Safety- and Liability-Related Aspects of Software, in M. A. Geistfeld, E. Karner, B. A. Koch, Ch. Wendehorst (ed.), op. cit. sub 2, str. 268 a násl.

[19] G. Wagner, AcP 217 (2017), str. 719; viz také G. Wagner, JZ 2023, str. 4 a násl.; G. Wagner, JETL 13 (2022), str. 203 (s ohledem omezení na standardní software); H. Koziol, P. Apathy, B. A. Koch: Österreichisches Haftpflichtrecht Band III3, 2014, str. 453 a násl. s dalšími odkazy.

[20] G. Wagner, AcP 217 (2017), str. 735 a násl.

[21] G. Wagner, JZ 2023, str. 10, to vidí jako „poněkud svérázné parafrázování předpokladů pro prima facie důkazy“.

[22] Také G. Wagner, JZ 2023, str. 10; G. Wagner, JETL 13 (2022), str. 218.

[23] Viz H. Koziol: Product Liability: Conclusions from a Comparative Perspective, in H. Koziol, M. D. Green, M. Lunney, G. Oliphant, L. Yang (ed.): Product Liability. Fundamental Questions in a Comparative Perspective, De Gruyter 2017, str. 538.

[24] K bližšímu vymezení G. Wagner, JZ 2023, str. 5; G. Wagner, JETL 13 (2022), str. 202 a násl.

[25] „Článek 4:202. Odpovědnost podniku (1) Osoba provozující trvalý podnik za hospodářským nebo odborným účelem, která používá pomocná nebo technická zařízení, odpovídá za škodu způsobenou vadou takového podniku nebo jeho výkonu, pokud neprokáže, že dodržela požadovaný standard chování. (2) ‚Vada‘ je jakákoli odchylka od norem, o které lze důvodně předpokládat, že je způsobena podnikem nebo jeho produkty nebo službami.“ Principy evropského deliktního práva, dostupné online: http://www.egtl.org/petl.html, přístupné 15. 6. 2023.

[26] Viz C.-W. Canaris: Bankvertragsrecht I, De Gruyter, 1988, marg. č. 367; K. Spiro: Die Haftung für Erfüllungsgehilfen, Verlag Stämpfli et cie, Berne 1984, str. 209 a násl.; H. Koziol: Basic Questions of Tort Law from a Germanic Perspective, Jan Sramek Verlag, Wien 2012, str. 228 a násl.

[27] Srov. E. Ondreasova: Haftung für technische Hilfsmittel de lege lata, Österreichische Juristenzeitung (ÖJZ) 2015, str. 444 a násl.

[28] Viz § 89e a § 91b odst. 8 zákona o organizaci soudu (GOG): Použití automatizovaného zpracování dat; k tomu viz E. Ondreasova, ÖJZ 2015, str. 445 a násl.

[29] Viz výše, části Odpovědnost za zaviněníOdpovědnost za výrobek.

[30] Vztah mezi odpovědností založenou na zavinění a objektivní odpovědností viz E. Karner: A Comparative Analysis of Traffic Accident Systems, Wake Forest L Rev 2018, str. 368 a násl.

[31] T. Hammel: Haftung und Versicherung bei  ersonenkraftwagen mit Fahrassistenzsystemen, Verlag Versicherung sirtschaft GmbH, Karlsruhe 2016, str. 206 a násl.; F. Harnoncourt: Haftungsrechtliche Aspekte des autonomen Fahrens, Österreichische Zeitschrift für Verkehrsrecht (ZVR) 2016, str. 548 a násl.

[32] Viz také G. Wagner, AcP 217 (2017), str. 758 a násl.

[33] Srov. C. van Dam: European Tort Law2, 2013, str. 412 a násl.

[34] Viz G. Wagner: AcP 217 (2017), str. 760 a násl.

[35] Pro srovnání s Finskem viz M. Hering: Der Verkehrsunfall in Europa, VVW GmbH, 2012, str. 62; srovnání s Nizozemskem viz M. Slimmen, W. H. van Boom: Road Traffic Liability in the Netherlands (April 2017), dostupné online: https://ssrn.com/abstract=2975796, zveřejněno 15. 6. 2023; pro srovnání s Polskem viz M. Nesterowicz, E. Baginska: Poland, in B. A. Koch, H. Koziol (ed.): Unification of Tort Law: Strict Liability, Springer Netherlands, 2002, str. 267.

[36] Pro srovnání s Belgií viz H. Cousy, D. Droshout, Belgium, in B. A. Koch, H. Koziol (ed.): Unification of Tort Law: Strict Liability, Springer Netherlands, 2002, str. 51; srovnání se Španělskem viz I. González- -Pacanowska: Development of Traffic Liability in Spain, in W. Ernst (ed.): The Development of Traffic Liability, Cambridge University Press, Cambridge 2010, str. 182.

[37] Britský zákon o automatických a elektrických vozidlech HL (2017-19) 109.

[38] Viz I. Griss: Gefährdungshaftung, Unternehmerhaftung, Eingriffshaftung, in I. Griss, G. Kathrein, H. Koziol (ed.): Entwurf eines neuen österreichischen Schadenersatzrechts, Springer, Wien/New York 2006, str. 57 a násl.

[39] K diskusi viz S. Beck: The Problem of Ascribing Legal Responsibility in the Case of Robotics, (2016) 31 AI & Society, str. 478 a násl.

[40] Viz také H. Hanisch: Zivilrechtliche Haftungskonzepte für Robotik, in E. Hilgendorf (ed.): Robotik im Kontext von Recht und Moral, Nomos, 2014, str. 39 a násl.

Go to TOP