O výhodách i úskalích využití AI nejen v české justici diskutovali odborníci
O budoucnosti využití umělé inteligence (AI) nejen v justici a advokacii, o tom, co vše to může změnit a jaké to může mít dopady na fungování společnosti, jak
O budoucnosti využití umělé inteligence (AI) nejen v justici a advokacii, o tom, co vše to může změnit a jaké to může mít dopady na fungování společnosti, jak nastavovat pravidla a snažit se předvídat nepředvídatelné, o tom všem diskutovali 17. října v pražském Obecním domě v reprezentativních prostorách Českého klubu odborníci z oblasti práva a IT spolu se zástupci Ministerstva spravedlnosti. Akci, která proběhla v rámci programu Dnů AI, uspořádala Advokátní asociace pro AI.
Technologie umělé inteligence (AI) se stále v rychlejším tempu stávají nástrojem, který je součástí každodenního fungování řady firem i jedinců. Na měnící se podmínky přitom musí adekvátně reagovat nejen byznys, ale také oblasti práva a spravedlnosti. Nové technologie v čele s umělou inteligencí vnášejí do celé společnosti zásadní změny a přinášejí řadu nových výzev v mnoha odvětvích. Tento trend se samozřejmě nemůže vyhnout ani oblasti advokacie. Nové technologie nenápadně pronikají do jednotlivostí, už dnes právníci AI používají na mnoha různých úrovních, podstatné však je, aby byly nastavené morálně etické limity.
„Naprostá většina aktérů nyní řeší primárně vnější regulaci a využívání umělé inteligence. Regulujeme použití externími subjekty, ale přitom nám chybí něco, co by se mohlo nazývat vnitřní regulace morálu a pravidel umělé inteligence. Jedná se o nejzákladnější pravidla, která by v ideálním případě byla obsažena v jádru každé AI. To je naprosto zásadní segment, se kterým se musíme vypořádat, dokud máme tyto věci ještě možnost efektivně ovlivňovat,“ zdůraznil náměstek ministra spravedlnosti Vilém Anzenbacher a dodal, že využití AI je z dlouhodobého hlediska jednou z priorit, kterou se ministerstvo zabývá.
Kybernetická bezpečnost a zodpovědné využívání generativní AI
Zástupce Ministerstva spravedlnosti Přemysl Sezemský, ředitel odboru eJustice, přítomným představil projekty v oblasti digitalizace justice a další inovace, které se už podařily nebo je lze v dohledné době očekávat. „Naše vize je zajistit funkční služby pro občany i právní profesionály. Toho docílíme i zavedením efektivních interních procesů a automatizace, dbáním na kybernetickou bezpečnost a v rámci inovací hledáním užitečných use-case pro zodpovědné použití generativní AI,“ uvedl a upozornil, že nejen v resortu justice je velice důležité nové systémy především s uživateli důkladně otestovat dříve, než se pustí do ostrého provozu. Ne termíny, ale kvalita je podle jeho mínění podstatná. „Dokud není produkt opravdu kvalitní, nespouštět,“ podotýká k zavádění nových systému, kde je podstatné vždy vychytat mnoho nedokonalostí, jež se projeví až v průběhu důkladného testování.
Připomněl také, jak podstatná je kybernetická bezpečnost. „Minulý rok byla justice pod stálými hackerskými útoky,“ poznamenal s tím, že právě řešení a obrana před neustálými kyberútoky zabírá ministerstvu mnoho času navíc.
Setkání odborníků z různých stran a vzájemné předávání informací a zkušeností Přemysl Sezemský velmi ocenil. „Vážíme si pozvání od Advokátní asociace pro AI, tato platforma je důležitá, na české scéně chyběla, určitě bude ku prospěchu celé justice,“ podotkl a dodal, že se ministerstvo bude rádo podílet i na další spolupráci.
„Důvodem vzniku Advokátní asociace pro AI bylo, aby se v našem i evropském advokátním prostoru tyto technologie používaly správně. A to jak z pohledu advokátního, tedy respektování advokátních principů, tak i z pohledu standardních etických pravidel při použití nových technologií,“ uvedl předseda výkonného představenstva Advokátní asociace pro AI Filip Drnec.
Nové technologie jsou už dnes velkým pomocníkem advokátům při práci s textem, vyhledávání souvislostí, při práci se spisem, kdy často tisíce, desetitisíce dokumentů znemožňují vyznat se dokonale v datech, není to v lidských silách. Technologie umožní vyhledat souvislosti, upozorní na nedostatky a podobně.
Diskutující připomněli, že příkladem dobrého využití AI může být také sněmovna, která k pořizování textových záznamů z jednání začala využívat umělou inteligenci po několikaměsíčním testování naplno od září. Nástroj dokáže převádět mluvenou řeč na text, rozpoznat jednotlivé mluvčí a usnadnit následné vyhledávání.
Nástrahy a úskalí, kterým je třeba předcházet, obrana proti deepfakes
Při využívání všech těchto nástrojů na zlepšení a zjednodušení práce je však třeba pamatovat na to, aby digitalizace odpovídala zásadám spravedlnosti, což se týká například i způsobu výslechu svědků, kdo bude přítomen, zda nemůže být svědek ovlivněn.
V souvislosti s využíváním nových technologií vyvstává řada otázek, ať už jde o účinnou obranu proti deepfakes, ochranu důvěrnosti vztahu advokáta a klienta, zachování mlčenlivosti, otázka účasti veřejnosti na soudních jednáních (kdo se může online připojit…), otázka tlumočení, protože v různých jazycích existují i různé významy stejných slov. Už dnes víme, že AI halucinuje, vytvoří třeba i neexistující judikaturu. Ve hře je tedy mnoho dalších oblastí, kde mohou vyvstat různá úskalí. Diskutují poukázali například také na právo na lidského soudce, o kterém se mluví, ale není nikde přímo zakotveno.
„Časem by se mohlo stát, že nám AI bude říkat, jak se máme chovat. To nechceme, lidé mají definovat, jak se společnost má chovat,“ zaznělo na setkání.
Vedle výhod využívání AI jsou tu i rizika, na které je třeba co nejvíce v předstihu myslet, nikdo však netuší, kam až se tato technologie bude ubírat a bude vždy o několik kroků před námi. Dnes filozofický problém bude třeba za 10 let nutné reálně řešit, je třeba se na všechny tyto velké výzvy připravit a ošetřit je legislativně.
„Vítáme společnou odpovědnost za vývoj se zaváděním AI, je třeba najít společnou řeč mezi IT odborníky, právníky, vymezit pravidla a vyhodnotit rizika,“ potvrdil Tomáš Vejlupek, předseda pracovní skupiny Intelligence, AFCEA. „Jsou před námi velké výzvy, prozatím vnímáme nedostatek porozuměni mezi IT odborníky, právníky a manažery,“ dodal. Každá skupina, profese má rozdílný přistup k technologiím. Nahlíží na ni ze svého úhlu pohledu a potřeb své profese. Je třeba hledat vyváženost mezi novými technologiemi a určitou zdrženlivostí, klást si otázky: Je důležitější ekonomie, nebo odpovědnost, tlak na rychlost, nebo správnost?
„Vývoj AI jde mílovými kroky, netušíme, kam nás zavede za 10 let, je třeba se zamýšlet v předstihu nad tím, jaké asi budou ty neočekáváné důsledky zavadění AI,“ potvrdil potřebu mezioborové spolupráce v rámci celé společnosti Tomáš Vejlupek.
Člověk získal dominanci díky schopnosti organizovat se ve velkých skupinách, díky vyznávání toho, co mnoho jednotlivců spojuje: společně uznávané zákony, lidská práva, hodnota peněz… a podobně. Ve fungující bezpečné společnosti existuje shoda na určitých pravidlech, hodnotách. Tato pravidla se vytvářejí pomocí jazyka, kterým se sdílí informace. AI nabourává operační systém společnosti. „Je tedy potřeba udržovat lidské informační sítě,“ zdůraznil Tomáš Vejlupek. Určité hodnoty společnosti jsou nutné pro přežití v konkrétní situaci, připomněl.
Aktuální nástroje AI pro právní užití
O tom, v jakém stavu jsou aktuální nástroje AI pro právní užití v praxi a kdy lze očekávat jejich dostupnost a nasazení, pohovořil Martin Kašpar, Business development manager a prokurista, Wolters Kluwer ČR. Účastníkům setkání názorně ukázal nástroje, které lze v advokátní praxi využívat, uvedl příklady z praxe, popsal, jakým způsobem zrychlí, zjednoduší a zlepší advokátům i koncipientům takové nástroje práci, a upozornil také na potřebu dodržovat morální a etické zásady.
Všichni diskutují se shodli, že je třeba při zavádění a využívání AI technologie vzájemně spolupracovat, předávat si informace a zkušenosti, nahlížet na problematiku z mnoha úhlů, snažit se dostatečně předvídat a pokud možno včas nastavovat legislativní, morální a etická pravidla, která bude společnost respektovat natolik, aby se AI stala dobrým pomocníkem, ale ne zlým vládcem nejen v oblasti práva, ale v celé bezpečně fungující společnosti.
Ivana Sýkorová
Foto: Advokátní asociace pro AI