Umělá inteligence si dokáže vymyslet judikaturu, upozorňuje Radim Polčák

Umělá inteligence (AI – Artificial intelligence) dokáže vytvořit i smyšlenou judikaturu. O případu z USA informoval účastníky sympozia „Právo a digitalizace – umělá inteligence ve zdravotnictví“ pořádané Českou justicí a Zdravotnickým deníkem prorektor Masarykovy univerzity v Brně prof. JUDr. Radim Polčák, Ph.D. S podobnými situacemi se podle něj bude v budoucnu potýkat i tuzemská justice.

 

Ve své přednášce, kterou přednesl na úvod sympozia „Právo a digitalizace – umělá inteligence ve zdravotnictví“, referoval profesor Radim Polčák o případu z USA, kdy advokát odeslal podání na soud a soudce následně zjistil, že v něm cituje judikaturu, kterou stvořila AI. „Část těch rozhodnutí vůbec neexistovala, část existovala, ale byla ve skutečnosti o něčem jiném,“ uvedl Radim Polčák s tím, že podání bylo vytvořeno přes chat GPT. Taková věc týkající se umělé inteligence je podle právníka nebezpečná. „Zejména je ale nebezpečné si vzít generativní systém a předpokládat, že mi vytvoří nějaký sofistikovaný obsah. Systém je udělaný na to, aby generoval texty. Ale jen jejich formu, obsah je potřeba dodat,“ vysvětlil. S tím se podle profesora Polčáka bude potýkat nejen justice, ale celá právnická obec.

 

Právo klopýtá za technologickým vývojem

V další části své přednášky se Radim Polčák věnoval umělé inteligenci a její možné regulaci. „Regulace zřejmě dopadne primárně na systémy, které jsou založené na strojovém učení. Takže to odliší AI od ostatního. Ta definice bude zřejmě velmi široká a postupem času do ní spadne téměř všechno, co má nějakou svojí vnitřní logiku. Protože jakýkoliv mechanismus strojového učení, cokoliv je trochu chytřejší, se asi objeví,“ míní Polčák. V té souvislosti připomněl poučku, že právo klopýtá za technologickým vývojem. Podle něj je to tak správné, protože není možné předvídat jakým směrem se bude pokrok ubírat. Problematiku si můžeme představit například u vývoje autonomních aut. „Ono to vypadá, že tu už 15 let jezdí autonomní auta, ale dokonce i velké automobilky přiznávají, že auta na stupni 5 asi pravděpodobně nikdy mít nebudeme. A to z různých důvodů,“ zmínil.

Nejnižším stupněm automatizace aut je stupeň 1, ve kterém automobil využívá některé automatické funkce jako je tempomat nebo asistent pro udržení jízdního pruhu. Řidič je ale stále zodpovědný za řízení. Naopak u stupně 5 je automobil plně autonomní a řidič nemusí být vůbec přítomen. „Například u D1 je potřeba taková míra kreativity pro to, aby člověk dálnicí projel, že to nikdy žádná AI nezvládne,“ glosoval prorektor Masarykovy univerzity.

Odlišná je situace ve zdravotnictví, kde přístroje založené na strojovém učení reálně existují a také generují právní problémy, zejména co se týče odpovědnosti. „Někteří kolegové by řekli, že se nesmí říkat odpovědnost, musí se říkat povinnost nahradit škodu,“ uvedl s tím, že rostou náklady na vývoj a na nasazení přístrojů. Týká se to především oblasti diagnostiky. U amerických nemocnic je běžné, že na noční službě není radiolog, ale pouze obsluha scannerů. radiolog pak může být klidně na druhém konci světa, třeba v Indii. Právě to je oblast, kterou by AI mohla ve velké míře zastat.

 

 

Pomůže AI s výběrem léků?

Profesor Polčák vzpomněl na situaci, kdy společnost IBM před několika lety představila nabídku Watson Health. Chtěla v ní využít svou základní platformu umělé inteligence k tomu, aby pomohla poskytovatelům zdravotní péče analyzovat velké objemy dat a revolučně změnit léčbu rakoviny. Ambice se však příliš nenaplnily. „Je otázka, čím to je. Já jsem se po tom pídil a údajně jedním z důvodů byly reálné případy odpovědnosti,“ řekl Polčák.

Další velkou oblastí, kde se systémy AI začínají testovat, jsou indikace toho, jaké léky má člověk dostat. Systém je schopen zpracovat velké množství informací ohledně různých kontraindikací, alergií a dalších zdravotních problémů.

Politický boj o regulaci AI bude podle Radima Polčáka zajímavý. „Myslím si, že základním kamenem bude certifikace. Tedy schéma, co a za jakých podmínek se bude certifikovat,“ míní. Sám se jednání o zákonné úpravě v Evropě dříve účastnil. „Bude to výsledek nějakého politického procesu, ale jak jsem měl možnost se toho účastnit, tak lidé, kteří to připravovali, měli extrémně vysokou úroveň chápání problematiky,“ dodal. Pokud jde o zdravotnické prostředky, mělo by se podle Polčáka jít dál cestami certifikace, které v současné době existují, protože dobře fungují. Problematiku by podle něj mohl mít na starosti Český telekomunikační úřad. „Každopádně by určitě nemělo dojít k tomu, že bude dvojkolejná certifikace. Jeden certifikát z jedné oblasti bude uznatelný jako certifikát podle jiné úpravy. Nemyslím si, že se zdravotnické prostředky v dohledné době budou certifikovat novým systémem, který vznikne na základě Aktu o AI,“ řekl profesor Polčák s tím, že je možné se inspirovat u certifikace v oblasti kyberbezpečnosti.

 

Klíčovým dokumentem bude AI Akt

Návrh nařízení, kterým se stanoví harmonizovaná pravidla pro AI (tzv. AI Akt) je od svého vydání nejdiskutovanějším dokumentem k AI na celoevropské úrovni. Jedná se o návrh prvního právního rámce pro AI, jehož cílem je poskytnout vývojářům, poskytovatelům a uživatelům systémů AI jasné a jednotné požadavky a povinnosti v rámci celého vnitřního trhu, za jakých je možné tyto systémy uvádět na trh či do provozu anebo je užívat, aby tyto systémy byly důvěryhodné, transparentní a fungovaly v souladu s hodnotami, základními právy a principy Evropské unie.

V Německu vznikl v souvislosti s AI návrh, aby se regulace udělala podobně, jako je řešena odpovědnost za domácí zvíře. Pokud pes někoho pokouše, je to odpovědnost majitele, který ho měl uvázat.

Dalším diskutovaným modelem byl model letadlo. Když spadne letadlo, tak to je vždy odpovědnost provozovatele letadla. Může se pak prokázat pochybení výrobce atd., ale v případě, že letadlo spadne, je to odpovědnost letecké společnosti, která ho provozuje. Další model, který se nabízel, je model výtah, kde je to naopak. Výtah musí být udělaný tak, že i když tam „namačkáte“, co chcete, nikdy nesmí spadnout. Pokud spadne, je to vždy problém výrobce.

 

 

 

Na sympoziu dále vystoupili bývalý místopředseda Nejvyššího soudu JUDr. Roman Fiala, náměstek ministra spravedlnosti Mgr. Antonín Stanislav, Ph.D., egyptolog prof. Mgr. Miroslav Bárta, Dr., Chief Information Officer AK Císař, Češka, Smutný Mgr. Martin Vlasta, ředitel divize Medical Solutions OR-CZ Ing. Bc. Michal Mačát, MBA, ředitel Asociace pro aplikovaný výzkum v IT Mgr. Jaromír Hanzal, spoluzakladatel Carebot, s. r. o., Matěj Misař a manažer Aireen, a. s, Matěj Adam, MBA.

 

Text: Eva Paseková – článek byl převzat se svolením redakce České justice
Foto: Radek Čepelák

Go to TOP