Evropské instituce analyzují možné právní problémy umělé inteligence

Evropská komise zveřejnila svoji strategii zaměřenou na data a umělou inteligenci. Návrhy na vytvoření jednotného trhu s daty a na zajištění rozvoje umělé inteligence zaměřené na člověka, které byly předloženy již letos v únoru, jsou prvními kroky v této oblasti. Komise navrhuje zefektivnit výzkum, podpořit spolupráci mezi členskými státy a zvýšit investice do vývoje a zavádění umělé inteligence.

Zastřešující digitální strategie nese název Evropa připravená na digitální věk a směřuje na 3 následující oblasti, na které se má Komise zaměřit v příštích 5 letech:

  1. technologie, které pracují pro občany,
  2. spravedlivou a konkurenceschopnou digitální ekonomiku,
  3. otevřenou, demokratickou a udržitelnou digitální společnost.


Smyslem Evropské strategie pro data
je nastartovat evropskou datovou ekonomikou a podpořit výměnu a sdílení dat napříč různými odvětvími a členskými státy. Pomocí jednotného trhu s daty má EU v úmyslu nevyužívaná data využít a umožnit jejich volný pohyb v rámci EU i napříč odvětvími ve prospěch podniků, výzkumných pracovníků i orgánů veřejné správy. V zájmu dosažení tohoto cíle chce EU zavést praktická, spravedlivá a jasná pravidla pro přístup k údajům a jejich využívání, která budou v souladu s evropskými hodnotami a právy, jako jsou ochrana osobních údajů, ochrana spotřebitele a právní předpisy v oblasti hospodářské soutěže. Strategie pro data navrhuje přijmout opatření týkající se správy údajů, přístupu k údajům a jejich opětovného použití pro účely sdílení údajů mezi podniky a veřejnou správou; dát k dispozici ve větší míře data veřejného sektoru tím, že se v celé EU zpřístupní datové soubory s vysokou hodnotou a umožní jejich bezplatné opětovné využití, a umožnit uživatelům, aby si zachovali kontrolu nad svými daty, a to prostřednictvím investic do budování kapacit pro malé a střední podniky a digitálních dovedností.


Do 31. května 2020 probíhá veřejná konzultace ohledně Bílé knihy o umělé inteligenci. Komise rovněž shromažďuje zpětnou vazbu ke své strategii pro data.
Na základě obdržených podnětů má Komise přijmout další opatření na podporu ekonomiky založené na datech a rozvoje důvěryhodné umělé inteligence.


Bílá kniha o umělé inteligenci
navrhuje společný evropský přístup k regulaci oblasti umělé inteligence a zajištění právní jistoty pro podniky i spotřebitele. Komise v dokumentu naznačuje 2 hlavní cíle: budovat ekosystém excelence, který podpoří výzkum a vývoj, financování projektů ve spolupráci se soukromým sektorem a rozvoj umělé inteligence v malých a středních podnicích a za druhé budovat ekosystém důvěry, který staví na vymezení společného regulatorního rámce pro oblast umělé inteligence.


Návrhy v Bílé knize počítají, že by se nově vytvořený regulatorní rámec vztahoval jen na vysoce rizikové sektory a případy použití umělé inteligence s možným ohrožením života či lidských práv. Pro nerizikové aplikace je navržen dobrovolný režim s potenciálními výhodami, pakliže by zákonné požadavky dodržovaly z vlastní vůle.
Komise se zaměřila i na shromažďování a využívání biometrických údajů pro účely identifikace na dálku, což s sebou nese specifická rizika pro základní práva. Pravidla EU pro ochranu údajů již v zásadě zakazují zpracování biometrických údajů za účelem jedinečné identifikace fyzické osoby, s výjimkou zvláštních podmínek. Konkrétně biometrickou identifikaci na dálku lze použít pouze z důvodů zásadního veřejného zájmu. Musí vycházet z právních předpisů EU nebo členských států, její použití musí být řádně odůvodněno, musí být přiměřené a podléhat odpovídajícím zárukám. Povolení k rozpoznávání obličeje je proto v současnosti výjimkou. Na základě bílé knihy hodlá Komise zahájit širokou diskusi o tom, které okolnosti mohou v budoucnu odůvodnit případné výjimky.

Rada evropských advokátních komor CCBE aktuálně připravuje svou reakci na veřejnou konzultaci, v níž upozorní na problematické oblasti Bílé knihy a rovněž konzultačního dotazníku Komise. Oblasti, jež CCBE v návrhu reakce komentuje vychází z dokumentu CCBE – Úvahy o právních aspektech umělé inteligence, jež byl schválen v rámci zasedání stálého výboru v únoru ve Vídni a o němž již ČAK v Advokátním deníku informovala.

CCBE v návrhu odpovědi za prvé vyjadřuje své obavy ohledně způsobu, jakým byl konzultační dotazník vytvořen. Dotazník nebyl zejména přizpůsoben konkrétním odvětvím a případům použití a nenabízí respondentům možnost uvést na otázku, z jaké perspektivy je odpověď poskytnuta. V důsledku toho bude velmi obtížné vykládat odpovědi bez dodatečných základních informací o tom, jak k odpovědím respondenti dospěli. Mnohé z těchto otázek navíc jsou zavádějící. Rozsah odpovědí CCBE je omezen především na aspekty související s právním státem, výkonem spravedlnosti a základními právy. Kromě toho se CCBE zabývá také některými otázkami odpovědnosti, jakož i potřebami vzdělávání advokátů a advokátních kanceláří, pokud jde o využívání umělé inteligence v právní praxi.


Návrh zprávy výboru JURI ohledně etických aspektů AI

Zpravodaj Výboru evropského parlamentu pro právní záležitosti Ibán García del Blanco (S&D, Španělsko) nedávno zveřejnil svůj návrh zprávy  s doporučeními Komisi týkajícími se rámce etických aspektů umělé inteligence, robotiky a souvisejících technologií. Lhůta pro pozměňovací návrhy je stanovena na 25. května.

Zpravodaj se domnívá, že při vývoji, zavádění a používání umělé inteligence by měl být do tohoto procesu vždy zapojen lidský dohled.  Zvláštní důraz je kladen na prevenci při práci s technologiemi definovanými jako “vysoce rizikové”, tj. v případě vysoce rizikové technologie je zásadní dodržovat etické zásady, které se řídí nestranností a jsou předmětem pravidelných externích hodnocení. Bez ohledu na takové posouzení rizik by kromě toho měla být umělá inteligence, robotika a související technologie, včetně softwaru, algoritmů a údajů používaných nebo vyrobených těmito technologiemi, vždy posuzována, pokud jde o jejich riziko, na základě objektivních kritérií a v souladu s příslušnými  odvětvovými právními předpisy platnými  v různých oblastech, jako jsou oblasti zdravotnictví, dopravy, zaměstnanosti,  spravedlnosti  a vnitřních věcí, sdělovacích prostředků, vzdělávání a kultury. Také pro občany, aby byli schopni technologie pojmout, by měla existovat určitá míra vysvětlitelnosti, která je v přiměřená složitosti technologie. Předpojatost a diskriminace softwaru, algoritmů a dat by měla být rovněž řešena stanovením pravidel pro jejich použití. Zpravodaj rovněž zdůrazňuje, že umělá inteligence by měla být rozvíjena sociálně odpovědným způsobem. Tyto technologie by především neměly jednotlivcům nebo společnosti způsobovat újmu nebo újmu jakéhokoli druhu. Zpravodaj proto zdůrazňuje, že je třeba, aby umělá inteligence, robotika a související technologie respektovaly práva občanů na soukromí a ochranu osobních údajů v souladu s právem EU. Minimalizace údajů by měla být použita jako hlavní zásada.

V rámci ochrany a bezpečného rozvoje zpravodaj dále zdůrazňuje otázku správy věcí veřejných. Měla by být zavedena opatření, která zaručí odpovědnost a řeší potenciální rizika předpojatosti a diskriminace.  Zpravodaj rovněž vyzývá vnitrostátní orgány, aby podporovaly pravidelné výměny s občanskou společností a inovace v EU tím, že budou pomáhat zúčastněným stranám. Tyto orgány by rovněž měly spolupracovat nejen mezi sebou, ale také s Komisí, aby zaručily soudržná přeshraniční opatření. Zpravodaj vyzývá Komisi, aby rovněž zvážila možnost zřízení Evropské agentury pro umělou inteligenci. Připomíná  usnesení Evropského parlamentu  z roku 2017 s některými konkrétními doporučeními v tomto ohledu. Jedním z úkolů agentury by bylo stanovit kritéria pro udělování evropských osvědčení o etickém souladu.

Zpravodaj rovněž předložil návrh nařízení o etických zásadách pro vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií. Navrhované nařízení by mělo:

(1) vytvořit regulační rámec etických zásad pro vývoj, zavádění a používání umělé inteligence a robotiky v EU;

2) zabezpečit přístup k umělé inteligenci zaměřené na člověka;

(3) zaručit dodržování základních práv a hodnot;

(4) Zřídit orgány dohledu v každém členském státě.

Výbor JURI projedná návrh zprávy v květnu, pozměňovací návrhy budou poté projednány na budoucích zasedáních výboru na konci června/ začátkem července. Návrh zprávy má být přijat ve výboru dne 28. září 2020 a dále předložen plenárnímu zasedání v říjnu 2020.


Návrh zprávy Výboru JURI (Axel Voss) Systém občanskoprávní odpovědnosti za umělou inteligenci

(k dispozici v češtině na adrese: https://www.europarl.europa.eu/doceo/document/JURI-PR-650556_CS.pdf

Návrh zprávy byl publikován 27. dubna 2020. Zpravodaj se zejména domnívá, že není třeba zcela přepracovat dobře fungující režimy odpovědnosti, ale nicméně že složitost, konektivita, neprůhlednost, zranitelnost a autonomie systémů AI představují značný problém, a je tedy nutné provést specifické úpravy, aby se zabránilo situaci, kdy osoby, které utrpěly újmu nebo škodu na majetku, zůstanou bez náhrady. Zpravodaj poznamenává, že všechny reálné nebo virtuální činnosti, zařízení nebo procesy řízené systémy AI mohou být technicky přímou nebo nepřímou příčinou újmy či škody, avšak vždy jsou výsledkem toho, že tyto systémy někdo sestrojil, uvedl do provozu nebo do nich zasahoval; je toho názoru, že v důsledku neprůhlednosti a autonomie systémů AI by mohlo být v praxi velmi obtížné nebo dokonce nemožné zpětně vysledovat, který konkrétní lidský zásah nebo které rozhodnutí při navrhování systému vedlo ke konkrétní škodlivé činnosti systémů AI,  přičemž že v souladu s široce přijímanými koncepcemi odpovědnosti lze tuto překážku nicméně obejít tím, že odpovědnost ponesou osoby, které vytvářejí, spravují nebo kontrolují rizika spojená se systémem AI. Směrnice o odpovědnosti za vadné výrobky se podle něj ukázala jako účinný prostředek, jak získat odškodnění za újmu způsobenou vadným výrobkem, proto konstatuje, že by se měla používat také v případě občanskoprávních nároků vůči výrobci vadného systému AI, pokud je daný systém AI považován podle této směrnice za výrobek.

Zpravodaj se domnívá, že stávající právní předpisy členských států týkající se subjektivní odpovědnosti za škodu nabízejí ve většině případů dostatečnou míru ochrany osobám, kterým byla způsobena újma zásahem třetí strany, například hackera, nebo jejichž majetek byl takovou třetí stranou poškozen, jelikož se v případě tohoto zásahu často jedná o zaviněné jednání; konstatuje, že další pravidla pro odpovědnost budou zřejmě nutná pouze pro případy, pokud třetí stranu nelze vypátrat nebo je insolventní. Považuje tedy za vhodné zaměřit se na občanskoprávní nároky vůči provozovateli systému AI, přičemž soudí, že pravidla pro odpovědnost týkající se provozovatele by se měla v zásadě vztahovat na veškerý provoz systémů AI, nehledě na to, kde jsou provozovány nebo zda jde o reálný či virtuální provoz.

Speciálně je pak dle zpravodaje třeba zvážit provoz na veřejných místech, který vystavuje riziku mnoho třetích osob a potenciální poškození si často provozu systému AI nejsou vědomi a zpravidla nemají s provozovatelem smluvní vztahy, na jejichž základě by mohli uplatnit nárok na odškodnění a v případě vzniku újmy nebo škody by takové třetí osoby mohly uplatňovat pouze nárok na odškodnění na základě subjektivní odpovědnosti za škodu a mohlo by pro ně být obtížné prokázat zavinění provozovatelem systému AI. Zpravodaj poznamenává, že mohou nastat situace, kdy existuje více provozovatelů a domnívá se, že v takovém případě by měli nést všichni provozovatelé společnou a nerozdílnou odpovědnost, přičemž by měli právo vznášet vůči sobě navzájem proporcionální regresní nároky. Pro rizikové režimy navrhuje dále stanovit režim objektivní odpovědnosti. Součástí zprávy je i doporučení zpravodaje k vydání nařízení EU ohledně odpovědnosti za provoz AI systémů, jež by se mělo vztahovat pouze na újmu, která poškozuje důležitá a zákonem zaručená práva, jako je právo na život, zdraví, tělesnou integritu nebo majetek, a mělo by stanovit částky a rozsah odškodnění, jakož i promlčecí lhůty. Nařízení by rovněž mělo stanovit povinnost provozovatelů rizikových systémů AI uvedených v příloze navrhovaného nařízení uzavřít pojištění odpovědnosti.


Návrh zprávy Výboru JURI (Stéphane Séjourné) Práva duševního vlastnictví pro rozvoj technologií umělé inteligence

(k dispozici v češtině zde: https://www.europarl.europa.eu/doceo/document/JURI-PR-650527_CS.pdf)

Návrh zprávy byl publikován dne 24. dubna 2020. Zpravodaj zejména navrhuje, že Unie se musí zabývat různými aspekty umělé inteligence pomocí definice, která je technologicky neutrální a dostatečně flexibilní, aby zahrnula budoucí technologický vývoj a doporučuje, aby dopady technologií umělé inteligence na práva duševního vlastnictví byly posuzovány podle odvětví a typů, jelikož tento přístup musí zohlednit míru lidského zásahu, důležitost role použitých dat a případný vliv jiných prvků. Zpravodaj navrhuje posoudit zejména dopad a vliv technologií umělé inteligence v rámci stávajícího režimu patentového práva, ochrany ochranných známek a průmyslových vzorů, autorského práva a práv s ním souvisejících, včetně použitelnosti právní ochrany databází a počítačových programů, a ochrany nezveřejněného know-how a obchodních informací („obchodního tajemství“) před jejich neoprávněným získáním, využitím a zpřístupněním; dále potvrzuje, že je třeba posoudit, zda by bylo vhodné zpřísnit smluvní právo a pravidla hospodářské soutěže, a vytvořit tak komplexnější právní rámec pro ekonomická odvětví, jichž se umělá inteligence týká. Zpravodaj uvádí, že matematické metody nelze patentovat s výjimkou případů, kdy se jedná o vynálezy technické povahy, které pak patentovat lze, pokud jsou splněna příslušná kritéria pro vynálezy, a tedy konstatuje, že inovace v oblasti umělé inteligence lze patentovat, pokud se jedná o nový vynález, který není zjevný a obsahuje inovativní prvek.

Patentové právo vyžaduje úplný popis použité technologie, což může pro některé technologie umělé inteligence představovat problém s ohledem na složitost uvažování. Autonomizace tvůrčího procesu vyvolává otázky ohledně vlastnictví práv duševního vlastnictví; proto by nebylo vhodné, aby technologie umělé inteligence měly právní subjektivitu. Co se ochrany umělecké a technické tvorby vytvářené umělou inteligencí týče, některá díla by mohla být chráněna autorským právem, přičemž doporučuje, aby vlastnictví práv patřilo osobě, která dané dílo zákonným způsobem připraví a zveřejní pod podmínkou, že si tvůrce dané technologie výslovně nevyhradil právo na takové použití. Bude zapotřebí rovněž zohlednit přezkum stávající politiky v oblasti ochranných známek a průmyslových vzorů, jelikož ty mohou být aplikacemi umělé inteligence vytvářeny samostatně. Zpráva konstatuje, že používání technologií umělé inteligence nemůže nahradit ověřování člověkem, pokud jde o udělování práv duševního vlastnictví a určování odpovědnosti v případě porušení těchto práv.

Zdroj: Odbor mezinárodních vztahů ČAK
Ilustrační foto: Pixabay

Go to TOP