Rozhraní justiční praxe a umělé inteligence: evoluce a výzvy
Následující článek získal 2. místo v kategorii Talent roku soutěže Právník roku 2023 a v Bulletinu advokacie jej publikujeme jako již tradičně v souladu se statutem soutěže. Autor v článku přináší komplexní přehled o vývoji a integraci umělé inteligence (AI) do právní praxe, který zahrnuje historický vývoj AI, přínosy automatizace v právní analýze, etické otázky a výzvy spojené s implementací AI v právu. Dále se zaměřuje také na přístup k regulaci umělé inteligence v rámci Evropské unie a Spojených států amerických. A v neposlední řadě také dále zkoumá roli AI v rozhodovacích procesech soudů, potenciál Nashovy teorie her v právní praxi a problémy spojené s autorskými právy děl generovaných umělou inteligencí.
Článek také zdůrazňuje důležitost pokračujícího výzkumu a diskuse o vlivu AI na právo, což naznačuje potřebu dalšího rozvoje v oblasti právních technologií a etiky. Cíl článku pak spočívá v podnícení diskuse o budoucnosti právní praxe a vzdělávání v kontextu rychlého technologického vývoje.
Historie a vývoj umělé inteligence (AI) v rámci přesahu do právní praxe představuje fascinující příběh inovace, adaptace a proměny. Od prvních kroků v 50. a 60. letech 20. století, kdy výzkumníci jako Alan Turing[1] zkoumali základní možnosti strojového myšlení[2] a jeho aplikace, až po současnost, kde AI má potenciál transformovat zásadním způsobem, jak právníci mohou provádět výzkum, analýzu dokumentů a jak přistupují k rozhodovacím procesům.
- Začátky integrace AI do právní praxe
Integrace umělé inteligence do právní praxe začala skutečně nabírat na síle s rozvojem počítačových technologií a softwaru v 80. a 90. letech 20. století. Jedním z prvních významných milníků bylo vytvoření systémů pro správu právních informací, které umožňovaly právníkům rychlejší přístup k případovým studiím a legislativě.[3] Tyto systémy, ačkoli primárně závislé na databázových technologiích, položily základy pro budoucí integraci sofistikovanějších AI aplikací v právním sektoru.
- Přelomový vývoj a přijetí
V posledních desetiletích byly vyvinuty pokročilé AI systémy, které dokáží provádět složité analýzy právních dokumentů, predikce výsledků soudních sporů a automatizaci smluvních revizí. Např. Yale Law Journal[4] publikoval studie zkoumající dopad těchto technologií na právní praxi, zdůrazňující jak jejich potenciál zvýšit efektivitu a přesnost, tak výzvy spojené s etickými a regulačními otázkami.
- Digitalizace a umělá inteligence v justiční praxi
Koncept digitalizace a umělé inteligence v justiční praxi znamená více než jen použití pokročilých technologií pro zpracování informací. Zahrnuje promyšlené začlenění AI do všech aspektů právní práce, od předběžného výzkumu (due diligence) a analýzy dokumentů až po rozhodovací procesy a klientům poskytované služby. Tento přístup vyžaduje nejen technologické nástroje, ale také hluboké porozumění etickým, právním a společenským dopadům jejich používání.
- Výhled do budoucna
Před námi stojí úkoly, jako je řešení otázek biasu (předpojatosti) AI, zajištění transparentnosti a odpovědnosti AI systémů, přizpůsobení právních a etických rámců rychle se vyvíjejícímu technologickému sektoru. Jak ukazují případové studie a výzkumy z předních právních časopisů, právní sektor stojí na prahu revoluce, která může zásadně změnit způsob, jakým chápeme a praktikujeme právo.
Tato historická a vývojová perspektiva nastiňuje, jak daleko jsme došli ve využívání umělé inteligence v právní praxi, a naznačuje směr, kterým se může ubírat další integrace AI v různých sférách. Nabízí se otázka, jaké nové příležitosti a výzvy přinese další rozvoj umělé inteligence pro právníky, soudce, legislativce a společnost jako celek. Významnou roli v této debatě hrají akademické instituce a odborné časopisy, které přispívají k hlubokému pochopení a kritické diskusi o vlivu umělé inteligence na právo a spravedlnost.
Role a význam umělé inteligence v právním systému
Analýza využití umělé inteligence v rozhodovacích procesech soudů
Umělá inteligence (AI) má potenciál transformovat rozhodovací procesy soudů tím, že přináší nové metody pro analýzu případů, predikci výsledků, a dokonce i předběžné hodnocení pravděpodobnosti úspěchu žalob. Systémy založené na AI, jako jsou ty, které využívají algoritmy strojového učení a zpracování přirozeného jazyka, jsou schopné procházet a analyzovat obrovské objemy právních dokumentů a předchozích rozhodnutí, což umožňuje právníkům a soudcům rychlejší a informovanější rozhodování.
Lze si snadno představit např. systém strojového učení pomáhající potenciálním účastníkům řízení tím, že předpovídá pravděpodobný výsledek jejich případu, pokud by se dostal před lidského soudce. To by bylo možné, pokud by umělá inteligence měla přístup k včasnému neutrálnímu hodnocení, založenému na statistické analýze dat chování soudů v minulosti.[5]
Účastníci soudních sporů a řízení by určitě uvítali nástroje, které jim mohou pomoci rozhodnout, zda pokračovat v řízení, uzavřít smír, nebo od něj raději odstoupit. Artificiální systémy, které mohou předpovědět jejich šance na úspěch, by jistě byly neocenitelné.[6]
Pro zlepšení právního prostředí by měla být přijata opatření, která by umožnila řešit situace nejednoznačného výkladu zákonů nebo identifikovat nesrovnalosti v soudní praxi, čímž by se zvýšila předvídatelnost práva.[7]
Zhodnocení přínosů automatizace v právní analýze a poradenství
Automatizace právní analýzy a poradenství prostřednictvím AI má několik klíčových přínosů. Zahrnuje zvýšení efektivity práce tím, že uvolňuje právníky od časově náročných a opakujících se úkolů, jako je procházení dokumentů a repetitivní právní výzkum. To může umožnit právním odborníkům soustředit se na složitější a strategičtější aspekty své práce, jako je formulace argumentů a interakce s klienty.
Dále AI umožňuje přesnější a rychlejší analýzu dat. Například nástroje pro analýzu smluv mohou identifikovat klíčové klauzule a potenciální rizika v dokumentech rychleji a s menším rizikem přehlédnutí než lidský operátor. Tím se zvyšuje kvalita právních služeb, která poskytuje klientům lepší ochranu a přidanou hodnotu.
Etické otázky a výzvy spojené s implementací umělé inteligence v právu
S rostoucím využíváním AI v právním sektoru se však objevují i etické otázky a výzvy. Jednou z hlavních obav je otázka biasu (neboli předpojatosti) a spravedlnosti. Algoritmy strojového učení mohou odrážet předsudky obsažené v jeho trénovacích datech, což může vést k neobjektivním nebo věcně nesprávným rozhodnutím. Tato problematika vyžaduje pečlivou kontrolu a korekci ze strany vývojářů AI, aby se zajistilo, že systémy jsou spravedlivé a objektivní. Algoritmy a data, které umělá inteligence využívá, jsou často chráněny jako obchodní tajemství. Je tedy zřejmé, že řešením je požadovat transparentní zveřejnění těchto algoritmů a dat.[8] Data a algoritmy se zdají být také důvodem pádu společnosti ROSS Intelligence, která byla žalována společností Westlaw za scrapování[9] její databáze dat. To ukazuje, že některá rizika spojená s umělou inteligencí nejsou přímo součástí AI, ale souvisí s prostředím, které AI na trhu vytváří.[10]
Další etickou výzvou je otázka transparentnosti a odpovědnosti. Jak mohou právníci a klienti důvěřovat rozhodnutím generovaným systémy AI, pokud není jasné, jak k těmto rozhodnutím dochází? Je zásadní zajistit, že AI systémy používané v právu jsou transparentní a že budou existovat jasné procesy pro přezkum a odvolání proti rozhodnutím založeným na AI. To zahrnuje zavedení standardů pro vysvětlitelnost AI a zajištění, že právníci mohou plně pochopit a interpretovat doporučení systému.
Konečně, otázka soukromí a ochrany údajů je předním etickým problémem. Systémy AI schopné analyzovat obrovské množství osobních a citlivých dat musí být navrženy a provozovány tak, aby chránily soukromí jednotlivců a dodržovaly přísné normy ochrany údajů. To vyžaduje robustní bezpečnostní opatření a dodržování právních předpisů, jako je obecné nařízení o ochraně osobních údajů (GDPR) v Evropské unii.
Při hledání pokynů, kdy a jak používat AI v právní praxi, je možné pro inspiraci přihlédnout k modelovým pravidlům Americké advokátní komory (ABA) o profesionálním chování, i když by mělo v budoucnosti docházet k dalšímu výkladu kvůli případným variacím. Pravidla ABA jsou formulována tak, aby byla aplikovatelná v různých situacích, jak se technologie vyvíjí, namísto toho, aby byla specifická pro jednotlivé technologie.
Několik modelových pravidel ABA se vztahuje k práci s AI, včetně pravidla 1.1 Kompetence a 1.6 Důvěrnost informací. V obecnějším smyslu se na používání umělé inteligence mohou vztahovat i stanoviska ABA k outsourcingu.
- Kompetence (1.1 modelových pravidel ABA)[11]
Zatímco pravidlo kompetence uvádí, že právník by měl poskytovat kompetentní zastupování svému klientovi, komentář 8 k modelovým pravidlům ABA o profesionálním chování výslovně zmiňuje technologie a říká: „právník by měl sledovat změny v právu a jeho praxi, včetně výhod a rizik spojených s relevantní technologií“.
Některé státy, jako např. Florida, tento předpis posunuly o krok dál a uvádějí, že pokud právník nerozumí určité technologii, měl by vyhledat neprávníka nebo někoho s relevantní odborností, kdo mu pomůže.
Pokud jde o generativní AI, uživatelé musí rozumět jak vstupu, tak výstupu služby a mít realistická očekávání týkající se přesnosti. Je důležité pochopit, že generativní AI je pouze tak dobrá, jaká jsou data, která dostává, takže pokud data obsahují chyby nebo zkreslení, výsledky to mohou odrážet.
- Důvěrnost informací (1.6 modelových pravidel ABA)[12]
Pravidlo důvěrnosti vyžaduje, aby právníci podnikli rozumné kroky k ochraně informací klienta před nechtěnými příjemci. To se týká používání technologie a zejména způsobu, jakým jsou informace přenášeny, ukládány a ničeny.
Je kriticky důležité, aby právníci kontrolovali podmínky použití jakékoli aplikace AI, kterou používají, a rozuměli tomu, jak jsou jakékoli informace, které zadají, ukládány nebo sdíleny s třetími stranami. Zde mohou přijít ke slovu pravidla týkající se outsourcingu, vzhledem k tomu, že většina nástrojů AI používaných právníky je vyvíjena a provozována externími dodavateli.
Přístup k regulaci umělé inteligence v rámci Evropské unie
V mezinárodním kontextu se s pojmem umělá inteligence často setkáváme prostřednictvím doporučení UNESCO týkajícího se etiky AI. Tato definice není závazná, ale může být využita k interpretaci právních textů.[13] Podle UNESCO jsou systémy umělé inteligence charakterizovány jako systémy schopné zpracovávat data a informace takovým způsobem, který napodobuje inteligentní chování. To obvykle zahrnuje schopnosti, jako jsou odůvodňování, učení se, vnímání, předvídání, plánování nebo řízení.[14] V České republice bude na uživatele mít značný vliv AI Act[15] od Evropské unie (EU), což je legislativa určená ke kategorizaci systémů umělé inteligence. Tímto způsobem se na každou kategorii budou vztahovat specifická regulační pravidla. Mezi zakázané algoritmy umělé inteligence budou patřit např. systémy schopné rozpoznávat emoce a pokročilé algoritmy pro rozpoznávání obličejů v reálném čase.
Návrh nařízení nabízí definici umělé inteligence, resp. systému umělé inteligence. „Systém umělé inteligence je systém založený na strojích, navržený tak, aby fungoval s různými úrovněmi autonomie, a který může po nasazení projevovat adaptivitu. Za explicitních nebo implicitních cílů vyvozuje ze vstupů, které přijímá, jak generovat výstupy, jako jsou předpovědi, obsah, doporučení nebo rozhodnutí, která mohou ovlivnit fyzické nebo virtuální prostředí.“[16]
Tato regulace bude mít významný dopad na obsah generovaný AI. Systémy, jako jsou ty, které produkují obrázky či texty (jako např. ChatGPT), budou muset jasně deklarovat, že byl obsah vytvořen s využitím umělé inteligence. Cílem je předejít zneužití pro šíření dezinformací a ovlivnit, jak se budou řešit autorská práva na obsah generovaný umělou inteligencí.
V prosinci roku 2023 dosáhli představitelé Rady EU a Evropského parlamentu dočasné shody na návrhu pravidel pro regulaci umělé inteligence, známého jako AI Act. Tento návrh má za cíl zaručit, že AI systémy uvedené na trh v EU budou bezpečné a v souladu se základními právy a hodnotami Evropské unie. Zároveň má návrh podpořit investice a inovace v oblasti AI v Evropě. AI Act představuje klíčovou legislativní iniciativu s cílem povzbudit rozvoj a aplikaci bezpečné a důvěryhodné AI napříč EU jak ve veřejném, tak soukromém sektoru. Regulace se zaměří na rizikový přístup, přičemž systémy s vyšším rizikem budou podléhat přísnějším pravidlům.
Klíčové prvky dočasné dohody zahrnují např.:
- specifická pravidla pro obecné AI modely s potenciálním systémovým rizikem a pro vysoce rizikové AI systémy;
- revize systému řízení s určitými pravomocemi na úrovni EU;
- rozšíření seznamu zakázaných aplikací, s možností využití biometrické identifikace na veřejných místech za určitých podmínek;
- zvýšená ochrana práv díky požadavku na posouzení dopadů na základní práva před zavedením vysoce rizikových AI systémů.
Specifické aspekty dočasné dohody zahrnují např.:[17]
- přesnější definice a rozsah působnosti, abychom rozlišili AI od jednoduchých softwarových systémů;
- klasifikaci AI systémů podle míry rizika a zakázané praktiky v oblasti AI;
- upravené požadavky pro vysoce rizikové AI systémy, aby byly technicky proveditelné a méně náročné;
- rozdělení odpovědnosti mezi různé aktéry v hodnotovém řetězci AI a vztah mezi AI Act a jinými EU předpisy;
- zakázané aplikace zahrnující neetické praktiky, jako je manipulace s chováním, neoprávněné shromažďování biometrických dat, emocionální rozpoznávání v pracovních a vzdělávacích prostředích, systémy sociálního skóre a některé formy prediktivity.
Pro donucovací orgány jsou stanoveny výjimky, aby mohly nadále využívat AI v kritických situacích, s příslušnými zárukami na ochranu základních práv. Nová pravidla pro obecné AI systémy a základní modely zohledňují jejich potenciální systémová rizika a stanoví povinnosti transparentnosti pro základní modely s „velkým dopadem“. Vytvoření Úřadu pro umělou inteligenci na úrovni EU, poradní role vědeckého panelu a Rady pro umělou inteligenci zajišťuje dohled a koordinaci. Stanovení pokut za porušení pravidel aktu o AI, s přihlédnutím k velikosti porušující společnosti, je také obsahem dočasné dohody. Dočasná dohoda klade důraz na transparentnost a ochranu základních práv a podporuje inovace prostřednictvím regulačních prostředí a speciálních podmínek pro testování AI v reálných podmínkách. Akt o umělé inteligenci by měl vstoupit v platnost dva roky po schválení, s výjimkami pro některá ustanovení.[18]
Regulace rozděluje AI systémy do kategorií podle rizika, které představují, na systémy s nízkým rizikem, vysoce rizikové a nepřijatelné.[19]
AI systémy považované za nepřijatelné, které jsou v konfliktu s hodnotami EU, jsou striktně zakázány. To zahrnuje systémy využívající manipulace, podvody nebo cílení na zranitelné skupiny k ovlivňování jejich rozhodování, stejně jako systémy pro přidělování sociálního kreditu nebo biometrickou identifikaci.
Vysoce rizikové AI systémy, které mohou ohrozit život, zdraví, bezpečnost nebo základní práva, mohou být uvedeny na trh pouze za předpokladu splnění přísných kritérií, jako jsou systémy využívané v dopravě, energetice, ve vzdělávání nebo při zaměstnání.
Pro tyto systémy nařízení vyžaduje:
- implementaci a dodržování systému řízení rizik;
- přípravu technické dokumentace a její pravidelnou aktualizaci;
- možnost automatického záznamu událostí s povinností jejich uchování;
- transparentní fungování systému;
- přiložení návodu k použití s důležitými informacemi pro uživatele;
- zajištění lidského dohledu nad systémem;
- povinnost poskytovatelů mimo EU jmenovat zástupce v EU;
- registraci systému v EU databázi před uvedením na trh;
- ohlášení jakéhokoli závažného incidentu nebo selhání systému.
Uživatelé vysoce rizikových systémů musí tyto povinnosti dodržovat a při výskytu rizika informovat poskytovatele a příp. pozastavit jejich používání.[20]
Dne 13. února 2024 dva hlavní výbory Evropského parlamentu vyjádřily podporu konečné verzi legislativy o umělé inteligenci. Pro její oficiální přijetí je nutné získat souhlas celého Evropského parlamentu, což se očekává na schůzi v dubnu roku 2024 (stalo se tak 13. 3. 2024 a nařízení bylo vyhlášeno v Úředním věstníku EU dne 12. 7. 2024 pod č. 2024/1689 – pozn. red.). Rovněž je vyžadována formální ratifikace ze strany členských států.
Belgické předsednictví nedávno prohlásilo, že hlavním záměrem této legislativy je zaručit bezpečné používání umělé inteligence, které bude v souladu se základními právy stanovenými EU. Tento Akt o umělé inteligenci podle názorů odborníků představuje první takovou regulaci na světě a má potenciál ovlivnit podobné regulace i mimo hranice Evropské unie. Norma zavádí klasifikaci AI technologií dle jejich využití a stanoví různé úrovně omezení v závislosti na riziku, které představují. EU plánuje některé AI systémy úplně zakázat, zatímco na jiné, jako jsou algoritmy pro rozpoznávání obličejů, se budou vztahovat přísné regulace.
Problematika autorských práv k dílům generovaným umělou inteligencí
V českém autorském zákoně[21] se uvádí, že autorem díla může být výhradně fyzická osoba, která toto dílo stvořila. Tento princip je charakteristický pro právní systémy kontinentální Evropy a opírá se o přesvědčení, že jen fyzické osoby mají kreativní schopnosti potřebné k vytvoření originálního autorského díla. S každým takovým autorem je nerozlučně spjata osobnostní dimenze autorských práv, což zahrnuje ochranu jeho osobního vztahu k dílu.
Tato práva zahrnují nejen právo na uznání autorství a ochranu před neoprávněným zásahem do díla, ale také právo na výhradní využívání díla, např. jeho reprodukci, šíření, veřejné předvedení a další formy užití.
Zajímavé je, že v době rostoucího vlivu umělé inteligence a automatizované tvorby obsahu se diskuse o tom, kdo může být považován za autora, stává stále aktuálnější. Zatímco současný právní rámec jasně přiznává autorská práva pouze fyzickým osobám, rozvoj technologií vyvolává otázky ohledně autorských práv k dílům vytvořeným umělou inteligencí bez přímého lidského přispění. Tyto otázky zahrnují, jak přiznávat a chránit práva k takovým dílům, kdo by měl být považován za jejich autora a jak by měly být rozdělovány případné zisky z jejich využití.
V mnoha jurisdikcích, vč. těch v kontinentální Evropě, probíhají debaty o tom, jak by měly být tyto výzvy řešeny, zda je potřeba aktualizovat stávající autorské zákony, a jak by měla být práva k dílům vytvořeným umělou inteligencí regulována, aby byla respektována jak práva tvůrců, tak veřejný zájem.
Vzhledem k tomu, že jak tvůrci, tak uživatelé umělé inteligence mohou splňovat základní kritéria pro uznání jako autorů díla vzniklého s pomocí AI, možným řešením se jeví koncept spoluautorství. V takovém modelu by autorská práva k dílu vytvořenému umělou inteligencí spadala jak pod uživatele AI, tak pod její tvůrce, přičemž by tato práva byla mezi nimi sdílena rovnocenně.[22]
Nicméně je důležité vzít v úvahu ust. § 8 odst. 2 českého autorského zákona,[23] které stanoví, že za spoluautora se nepovažuje osoba, jejíž příspěvek k dílu spočíval pouze ve výkonu technické, administrativní či odborné pomoci, poskytování dokumentace nebo technických materiálů, či v podání samotného podnětu k vytvoření díla.
Proto je pro určení autorství nebo spoluautorství u děl vytvořených s použitím AI zásadní posoudit, do jaké míry jednotliví aktéři přispěli svou kreativní činností ke vzniku daného díla. V souladu s uvedeným ustanovením českého autorského zákona může být uživatel AI v případě, že jeho kreativní přínos byl minimální, považován pouze za iniciátora díla, zatímco tvůrce AI by v situaci minimálního kreativního vkladu mohl být vnímán jen jako poskytovatel technické podpory.
Přístup k regulaci umělé inteligence v rámci USA (vč. autorských práv)
Ve Spojených státech amerických se také intenzivně diskutuje o regulaci umělé inteligence. Kongres vyzval Sama Altmana, CEO OpenAI (tvůrce ChatGPT), aby představil svůj pohled na regulaci AI. Altman podpořil myšlenku silné regulace a navrhl těsnou spolupráci mezi OpenAI a vládními institucemi k dosažení optimálních výsledků.[24]
Tim Cook, CEO společnosti Apple, se k regulaci umělé inteligence vyjádřil z jiné perspektivy, zdůrazňující význam samoregulace firem. Navrhl, že společnosti by měly sestavit specializované týmy pro rychlou a efektivní implementaci regulace AI reagující na její rychlý vývoj.[25]
Spolupráce na bezpečném vývoji AI
V červenci roku 2023 se v Bílém domě sešli představitelé sedmi předních společností v oblasti umělé inteligence,[26] aby se zavázali k bezpečnému, zabezpečenému a transparentnímu rozvoji AI technologií. Mezi jejich závazky patřilo i investování do vývoje nástrojů, jako jsou vodoznaky,[27] pro označování obsahu vytvořeného AI.
Ačkoli byl tento krok Bílého domu prezentován jako ochrana spotřebitelů,[28] může přinést výhody i samotným AI společnostem. Přijetí vodoznaků by mohlo posílit jejich argumenty pro automatické přiznání autorských práv na výstupy AI.[29]
Iniciativa
Tento krok je součástí širší iniciativy administrativy Joe Bidena a Kamaly Harrisové zaměřené na využití potenciálu a řízení rizik AI. Závazky reflektují rostoucí zájem o regulaci AI a zahrnují bezpečnost, zabezpečení a důvěru jako klíčové principy. Rovněž došlo ke zdůraznění závazku k bezpečnému a odpovědnému vývoji AI prostřednictvím různých setkání a publikací, vč. exekutivního nařízení o algoritmickém zkreslení.
Výzvy regulace AI
Přesto se první pokusy o regulaci AI v USA setkávají s kritikou kvůli nedostatku konkrétních opatření a absenci vymahatelnosti. Závazky, které jsou často vnímány jako nekonkrétní sliby bez reálných důsledků, nejsou podloženy zákonem a chybí jim mechanismy pro zodpovědnost a vymáhání.
Vodoznakování (watermarking) jako klíč k identifikaci AI
Významnou výjimkou mezi závazky je identifikace obsahu generovaného AI, kde je vodoznakování uvedeno jako potenciální mechanismus. Tento přístup, který zajišťuje odpovědnost AI společností za autentizaci obsahu, by mohl otevřít cestu k ekonomické hodnotě autorských práv, což by zase mohlo motivovat další vývoj efektivních nástrojů pro vodoznakování.[30]
Autorská práva a AI v USA
Vytvoření technických mechanismů pro označování AI generovaného obsahu může umožnit AI společnostem získat ekonomickou hodnotu z autorských práv. Přestože právní status děl generovaných AI zůstává nejasný, vodoznak jako informace o správě autorských práv naznačuje možnost, že AI společnosti by mohly udržet vlastnictví autorských práv na tato díla jako výchozí režim.
Přiřazení autorských práv společnostem AI by mohlo také podnítit zavedení účinných mechanismů pro identifikaci děl generovaných AI. S ekonomickou hodnotou autorských práv na stole by měly společnosti AI motivaci efektivně identifikovat obsah vytvářený na jejich platformách, i kdyby se později rozhodly smluvně odstoupit od standardního přiřazení autorských práv. Identifikace na začátku procesu je důležitá, protože budoucí regulace může vyžadovat spolehlivý přehled děl generovaných AI,[31] a mít na místě přesné mechanismy identifikace by výrazně usnadnilo správu budoucích regulačních režimů. Přiřazení autorských práv společnostem AI by také mohlo pomoci zajistit, že společnosti zůstanou ekonomicky angažované v udržování správných mechanismů identifikace, navzdory jakýmkoli potenciálním právním rizikům spojeným s nárokem na výstupy uživatelů. Tímto způsobem by závazek Bílého domu mohl sloužit jako základ pro robustnější a efektivnější systém autorských práv pro obsah generovaný AI v budoucnosti.
Je však obtížné přesně předpovědět, jak by se tato struktura pobídek protnula s dalšími firemními prioritami. Společnosti mohou dospět k závěru, že hodnota autorských práv neospravedlňuje přijetí potenciální odpovědnosti za širokou škálu výstupů, které uživatelé na jejich platformách vytvářejí. Toto riziko by mohlo společnosti odradit od přesné identifikace obsahu generovaného AI, a pokud by k tomu došlo, závazek k vytváření vodoznaků by byl, jak tvrdí kritici, neúčinný. Nicméně společnosti již nyní vyvíjejí mechanismy identifikace v souladu se závazky Bílého domu.[32]
Např. Google nedávno představil nový nástroj nazvaný SynthID, který slouží k vodoznačení obsahu vytvořeného pomocí nástroje na převod textu na obraz s využitím vstupního textu k vytváření fotorealistických obrázků s názvem Imagen. Synth ID vkládá digitální vodoznak přímo do obsahu generovaného umělou inteligencí, aniž by došlo k narušení původního obsahu, a také dokáže skenovat obrázky, audio, text nebo video a hledat digitální vodoznaky, čímž pomáhá uživatelům určit, zda byl obsah nebo jeho část vygenerována nástroji umělé inteligence společnosti Google.[33] Tento předčasný krok Googlu v této oblasti ukazuje, že alespoň jeden hlavní hráč v oblasti AI zvážil situaci a rozhodl se, že investice do nástrojů pro vodoznačení stojí za možná nová rizika, kterým může jejich platforma čelit. V minulosti se technologickým společnostem vyplatilo zapojovat se do diskusí s regulátory již v rané fázi, a regulátoři by mohli znovu zvážit odměnu v podobě autorských práv. Nevyužití impulzu vytvořeného závazky Bílého domu by mohlo představovat ztracenou příležitost k podpoře systému, který je snadno spravovatelný a prospěšný jak pro uživatele, tak pro společnosti.
Přestože by přiznání všech autorských práv společnostem pracujícím s AI mohlo být příliš velkou „odměnou“ za jejich snahu identifikovat a označit obsah vytvořený AI, zvláště pokud by taková snaha byla zákonem požadována bez jakékoli kompenzace,[34] hlavní obava spočívá v tom, že společnosti AI by byly nadměrně odměněny za kreativní úsilí uživatelů AI, což by mohlo vést k tomu, že tvůrci a umělci by byli poškozeni.
Potenciální dopady a výzvy
Tento přístup vyvolává otázky o možném omezení inovací a přístupu k obsahu generovanému AI. Exkluzivní kontrola nad tímto obsahem společnostmi by mohla vést k omezení tvůrčího a inovačního využití. Navíc, přiřazení autorských práv společnostem může vyvolat další právní a etická dilemata.
Zatímco závazky přijaté v rámci Bílého domu představují krok vpřed v regulaci AI, způsob jejich implementace a skutečný dopad zůstávají otevřené. Je důležité sledovat další vývoj, a zda se tyto závazky promění v konkrétní opatření vedoucí k transparentnějšímu a odpovědnějšímu využívání AI.
Umělá inteligence a rozhodovací modely v právních systémech
Integrace Nashovy teorie her do právní praxe, umělé inteligence (AI) a korporátního práva nabízí unikátní přístup k analýze a řešení komplexních rozhodovacích dilemat. Tato aplikace může zlepšit strategické rozhodování právníků, soudců a korporací tím, že poskytne rámec pro předvídání a optimalizaci interakcí mezi různými aktéry v právním a obchodním prostředí.
Strategické rozhodování a právo
Nashova teorie her, založená na konceptech rovnováhy a vzájemného očekávání účastníků, může významně ovlivnit, jak právníci a soudci přistupují k rozhodovacím procesům. V kontextu soudního sporu nebo smíru mohou obě strany využít tuto teorii k analýze potenciálních výsledků a strategií protistrany. Předvídání možných tahů a reakcí může vést k informovanějším a strategičtějším rozhodnutím, ať už jde o pokračování v soudním sporu, nebo hledání smírného řešení.
Umělá inteligence a rozhodovací modely
V aplikacích AI může Nashova teorie her informovat o vývoji algoritmů schopných modelovat a predikovat výsledky právních sporů nebo optimalizovat jednání s protistranou. Systémy založené na AI mohou analyzovat historická data a identifikovat vzorce, které pomáhají předvídat rozhodnutí soudu nebo pravděpodobnost dohody. Tím se umožňuje advokátům a jejich klientům lépe se připravit na různé scénáře a formulovat strategie, které maximalizují jejich šance na úspěch.
Korporátní právo a mezinárodní obchod
V korporátním právu a mezinárodním obchodě může Nashova teorie nabídnout náhled na to, jak společnosti přistupují k rozhodnutím v konkurenčním prostředí, zejména v případě fúzí, akvizic a strategických aliancí. Použití principů teorie her může pomoci korporacím lépe navigovat v komplexních obchodních jednáních, optimalizovat své strategie a předvídat možné kroky konkurence.[35]
Začlenění Nashovy teorie her do justiční praxe a umělé inteligence představuje významný krok vpřed v analýze a předvídání rozhodovacích procesů v právu. Od strategického rozhodování v soudních sporech až po optimalizaci korporátních jednání a mezinárodního obchodu, teorie her nabízí cenné nástroje pro zlepšení efektivity, přesnosti a spravedlnosti v právním rozhodování. Budoucí výzkum by měl pokračovat v prozkoumávání těchto otázek, s cílem rozvíjet metody, které umožňují právníkům využívat přínosy teorie her, zatímco minimalizují potenciální rizika, zajišťují spravedlivý a transparentní právní proces.
Při fúzi nebo akvizici společností s mezinárodním rozměrem lze Nashovu teorii her využít k analýze a předvídání reakcí různých zainteresovaných stran, vč. konkurence, regulačních orgánů a akcionářů. Např., pokud dvě firmy zvažují spojení, mohou pomocí teorie her modelovat potenciální výsledky jednání s regulačními orgány a konkurenty, aby našly strategii, která maximalizuje jejich společný užitek. Tento přístup pomáhá identifikovat optimální podmínky pro akvizici nebo fúzi, které jsou přijatelné pro všechny zúčastněné strany, a minimalizovat riziko odmítnutí regulačními orgány nebo nepřátelských převzetí.
Nash ukázal, že každá konečná nekooperativní hra má alespoň jeden rovnovážný bod,[36] což je situace, kdy žádný z hráčů nemůže svou situaci zlepšit jednostrannou změnou strategie, pokud ostatní hráči udrží své strategie konstantní. Tento koncept má široké uplatnění nejen v ekonomii, ale i v právu, kde může pomoci při analýze strategických interakcí, jako jsou vyjednávání, soudní spory nebo tvorba politik.[37]
Konkrétně Nash rozvíjí základy teorie nekooperativních her, definuje klíčové pojmy, jako jsou smíšené strategie, výplatní funkce, a dokazuje existenci rovnovážných bodů pomocí Brouwerova fixního bodu teorému. Dále se zabývá symetriemi her a ukazuje, jak lze určité herní situace analyzovat a předvídat pomocí matematických metod.[38]
Tyto myšlenky mohou být využity k ilustraci, jak umělá inteligence může aplikovat teorii her pro simulaci a optimalizaci strategických rozhodnutí v právních kontextech, např. při automatizovaném vyjednávání nebo při předvídání výsledků soudních sporů.
Postscriptum
Výzvy a příležitosti pro právníky
V kontextu rostoucí globalizace a digitalizace čelí právníci mnoha výzvám, vč. potřeby adaptace na mezinárodní právní normy, zvládání technologických inovací a etických dilemat spojených s AI. Tyto výzvy však současně přinášejí řadu příležitostí: možnost rozšířit právní služby na mezinárodní úrovni, využití pokročilých technologií pro zvýšení efektivity a kvality právního poradenství a možnost přispět k rozvoji nových právních a etických rámců pro digitalizovaný svět.
Doporučení pro budoucí výzkum či implementaci
Budoucí výzkum by se měl zaměřit na další rozvoj a integraci AI v právní praxi, s důrazem na řešení etických otázek, jako jsou bias (předpojatost) a transparentnost algoritmů. Důležité bude také zkoumání dopadu mezinárodních právních regulací na využívání AI a digitalizace v různých jurisdikcích.
Pro praxi je klíčové vyvíjet inovativní vzdělávací programy pro právníky, které by pokrývaly nové dovednosti potřebné v digitalizovaném a globalizovaném právním prostředí, vč. technologické způsobilosti a mezikulturní komunikace.
Jsem toho názoru, že právní sektor může hrát klíčovou roli v utváření budoucnosti, kde technologie a umělá inteligence slouží k posílení spravedlnosti a zvýšení přístupu ke kvalitním právním službám pro všechny.
Integrace AI do právní praxe nabízí slibné příležitosti pro inovaci, ale vyžaduje také pečlivou reflexi a spolupráci mezi právníky, vývojáři AI a regulátory, aby bylo možné řešit výzvy a maximalizovat potenciál, který umělá inteligence pro právní sektor přináší.
Mgr. David Hron je advokátním koncipientem v Praze.
Ilustrační foto: Pixabay
[1] Např. Alan Turing and the beginning of AI [cit. 2024-02-28], dostupné online z: https://www.britannica.com/technology/artificial-intelligence/Alan-Turing-and-the-beginning-of-AI.
[2] A. M. Turing: Computing Machinery and Intelligence, 1950 [cit. 2024-02-28], dostupné online z: https://redirect.cs.umbc.edu/courses/471/papers/turing.pdf.
[3] Např. systémy jako LexisNexis nebo Westlaw.
[4] AI and the Possibilities for the Legal Profession and Legal Education, Yale Law Journal 2023 [cit. 2024-02-28], dostupné online z: https://law.yale.edu/yls-today/news/ai-and-possibilities-legal-profession-and-legal-education.
[5] R. E. Susskind: Online Courts and the Future of Justice, Oxford University Press, Oxford 2019, str. 275-283.
[6] Tamtéž.
[7] D. L. Chen: Judicial analytics and the great transformation of American Law, Artificial Intelligence and Law, 2019, str. 13-42 [cit. 2024-02-28], dostupné online z: https://link.springer.com/article/10.1007/s10506-018-9237-x.
[8] What’s Inside the Black Box? AI Challenges for Lawyers and Researchers, Cambridge University Press, 2019 [cit. 2024-02-28], dostupné online z: https://www.cambridge.org/core/journals/legal-information-management/article/whats-inside-the-black-box-ai-challenges-for-lawyers-and-researchers/8A547878999427F7222C3CEFC3CE5E01#article.
[9] Technika používaná ke kopírování obsahu webové stránky nebo informací pomocí počítačového programu nebo skriptu.
[10] A. Lancaster: Judge Rejects ROSS Intelligence’s Dismissal Attempt of Thomson Reuters Suit Over Westlaw Content, Law.com. [cit. 2024- -02-28], dostupné online z: Judge Rejects ROSS Intelligence’s Dismissal Attempt of Thomson Reuters Suit Over Westlaw Content | The Recorder.
[11] Model Rules of Professional Conduct, by the American Bar Association [cit. 2024-02-28], dostupné online z: https://www.americanbar.org/groups/professional_responsibility/publications/model_rules_of_professional_conduct/.
[12] Tamtéž.
[13] Recommendation on the Ethics of Artificial Intelligence, UNESCO [cit. 2024-02-28], dostupné online z: https://www.unesco.org/en/articles/recommendation-ethics-artificial-intelligence.
[14] Tamtéž.
[15] Návrh nařízení Evropského parlamentu a Rady, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci [cit. 2024-02-28], dostupné z: https://artificialintelligenceact.eu/the-act/.
[16] Tamtéž.
[17] Tamtéž.
[18] Tamtéž.
[19] Viz vizualizace druhů rizik systémů AI výše.
[20] Op cit. sub 15.
[21] § 5 odst. 1 zák. č. 121/2000 Sb., o právu autorském, o právech souvisejících s právem autorským a o změně některých zákonů (autorský zákon), ve znění pozdějších předpisů, dále „český autorský zákon“.
[22] § 8 odst. 1 českého autorského zákona.
[23] § 8 odst. 2 českého autorského zákona.
[24] How Sam Altman Stormed Washington to Set the A.I. Agenda, New York Times [cit. 2024-02-28], dostupné online z: https://www.nytimes.com/2023/06/07/technology/sam-altman-ai-regulations.html.
[25] A Tim Cook uses ChatGPT and says Apple is looking at it closes, CNBC [cit. 2024-02-28], dostupné online z: https://www.cnbc.com/2023/06/06/apple-ceo-tim-cook-says-ai-companies-need-to-regulate-themselves.
[26] Jednalo se o společnosti Amazon, Anthropic, Google, Inflection, Meta, Microsoft a OpenAI.
[27] Biden-Harris: Administration Secures Voluntary Commitments from Leading Artificial Intelligence Companies to Manage the Risks Posed by AI (July 21, 2023), [cit. 2024-02-28], dostupné z: https://www.whitehouse.gov/briefing-room/statements-releases/2023/07/21/fact-sheet-biden-harris-administration-secures-voluntary-commitments-from-leading-artificial-intelligence-companies-to-manage-the-risks-posed-by-ai.
[28] Tamtéž.
[29] Tamtéž.
[30] Tamtéž.
[31] Who Will Own the Art of the Future? WIRED [cit. 2024-02-28], dostupné z: https://www.wired.com/story/openai-dalle-copyright-intellectual-property-art.
[32] Google DeepMind Has Launched a Watermarking Tool for AI-Generated Images, MIT Tech [cit. 2024-02-28], dostupné z: https://www.technologyreview.com/2023/08/29/1078620/google-deepmind-has-launched-a-watermarking-tool-for-ai-generated-images.
[33] S. Gowal, P. Kohli: Identifying AI-Generated Images with SynthID, Google DeepMind [cit. 2024-02-28], dostupné online z: https://www.deepmind.com/blog/identifying-ai-generated-images-with-synthid.
[34] A.I. the Death of Art? Or the Future of Creativity? Medium: MLearning.ai [cit. 2024-02-28], dostupné z: https://medium.com/mlearning-ai/is-a-i-the-death-of-art-or-the-future-of-creativity-78ed410673d3.
[35] J. F. Nash: Non-cooperative games The Annals of Mathematics, Princeton University, 1951, str. 286-295 [cit. 2024-02-28], dostupné online z: Non-Cooperative Games on JSTOR
[36] Tamtéž, str. 286-295.
[37] Výše je znázorněn koncept Nashovy rovnováhy v nekooperativní hře pomocí jednoduché 2×2 payoff matice. Ukazuje dva hráče, každého se dvěma strategiemi, a zvýrazněný rovnovážný bod, kde žádný z hráčů nemá podnět odchýlit se od své strategie, za předpokladu, že strategie druhého hráče zůstává nezměněna. Šipky nebo značky pak poukazují na pozici rovnováhy v matici, demonstrující klíčový princip Nashovy rovnováhy.
[38] Op. cit. sub 35, str. 286-295.