Etické aspekty užívání umělé inteligence a jiných technologických řešení při poskytování právních služeb

Každým dnem dochází na poli umělé inteligence k zásadním pokrokům, které se nevyhnutelně promítají i do poskytování právních služeb. Nové technologie by měly umožnit advokátům poskytovat právní služby precizněji, rychleji a s nižšími náklady, přičemž je důležité zajistit, aby jejich užívání bylo v souladu s profesními etickými standardy, a klientům tak mohly přinést skutečný prospěch. Liberalizace a demokratizace trhu s relevantními technologickými nástroji s sebou přináší také rizika týkající se proliferace neoprávněných poskytovatelů právních služeb. I v této souvislosti tak bude ze značné části na advokátech, aby byli s ohledem na užívání moderních technologií schopni převzít iniciativu a byli na související výzvy patřičně připraveni.

Martin Štípa

Bezmála 10 let[1] jsme každoročně[2] pravidelně informováni o přelomových pokrocích na poli umělé inteligence – tomu ostatně odpovídá i stále rostoucí množství článků, odborných studií či reportů na dané téma.[3] Studie se přitom nevyhýbají ani predikcím ohledně toho, v jakém rozsahu a v jakých profesích bude umělá inteligence schopna nahradit člověka. Dle nedávné studie konzultační společnosti McKinsey se tak např. očekává, že do roku 2030 bude až 30 % náplně práce advokátů a soudců automatizovaných.[4]

Nástroje pomáhající s automatizací právních činností jsou v právní praxi přítomny dlouhodobě. Zřejmě bychom stěží hledali advokáta, který by na svém počítači nepoužíval alespoň základní textové editory, značná část advokátů má pak nepochybně přístup do alespoň některého z právních informačních systémů poskytujících komplexní přístup k judikatuře, právním předpisům a právní literatuře. Někteří advokáti si již mohli zvyknout i na nástroje schopné pomoci s vyhotovením právní rešerše, přípravou smluvní dokumentace nebo např. s vyhledáváním a propojováním informací v rámci rozsáhlých právních prověrek (due diligence) či při složitých investigacích.[5], [6] Mnohé z těchto nástrojů také disponují technologií, která je obecně chápána jako určitá verze umělé inteligence.

Co se týče vymezení pojmu umělá inteligence, vzhledem k absenci zákonné definice a vzhledem k nejrůznějším technickým aspektům, které se na jejím vymezení mohou podílet, budeme pro účely tohoto příspěvku vycházet z definice představené pro účely nedávného stanoviska České advokátní komory (dále jen „ČAK“), kde je umělá inteligence definována jako „schopnost počítačových programů napodobovat lidské schopnosti, jako je psaný či jiný projev, vyhledávání informací, učení se, uvažování, plánování nebo kreativita. Pro AI dále platí, že systémy umělé inteligence jsou schopné pracovat samostatně a také měnit a přizpůsobovat své jednání na základě vyhodnocení efektů předchozích akcí.“[7]

Pokud jde o zapojení umělé inteligence či jiných technologických řešení do poskytování právních služeb, je třeba připomenout, že právní služby mohou na území České republiky poskytovat pouze advokáti a některé další taxativně vymezené osoby dle § 2 zákona č. 85/1996 Sb., o advokacii (dále jen „zák. o advokacii“). Právními službami se přitom dle § 1 odst. 2 zák. o advokacii rozumí „zastupování v řízení před soudy a jinými orgány, obhajoba v trestních věcech, udělování právních porad, sepisování listin, zpracovávání právních rozborů a další formy právní pomoci, jsou-li vykonávány soustavně a za úplatu“.[8]

Vrátíme-li se však k představám o nahrazení právních profesio­nálů kombinací moderních technologických nástrojů, ty byly dlouhé roky spíše předmětem teoretických úvah. Teprve s koncem roku 2022[9] a s popularizací neustále se vyvíjející generativní umělé inteligence založené na velkých jazykových modelech[10] však začaly mít tyto úvahy reálnější kontury. Žádný z dříve představených nástrojů nebyl schopen natolik zásadním způsobem proměnit pole poskytování právních služeb.

Používání umělé inteligence (a potažmo dalších moderních technologických nástrojů) při poskytování právních služeb je však třeba podrobit úvaze nad etickým rozměrem jejího zapojení a nad konkrétními a praktickými dopady, které se mohou v budoucnosti projevit.

Kromě nepopiratelných výhod, které s sebou zapojení nových technologií přináší, a jejich potenciálu celkově zvýšit úroveň poskytování právních služeb, je vhodné poukázat také na některá inherentní rizika. Jedním z nich může být např. riziko, kdy se tyto technologické nástroje dostanou do rukou neoprávněných poskytovatelů právních služeb.[11] Neposkytnutí žádné právní služby totiž může být mnohdy lepší, než když je taková právní služba poskytnuta ze strany nekompetentních osob.

Etický rozsah při používání moderních technologií v advokacii 

Jakékoliv užívání technologií ze strany advokátů by mělo být nazíráno optikou náležité odborné péče, kterou je advokát v souladu s právními předpisy[12] a judikaturou[13] povinen vynaložit při poskytování právních služeb svým klientům.

Pokud technologické nástroje umožňují advokátům poskytovat právní služby precizněji, rychleji a s nižšími náklady, zbývá jejich aplikovatelnost podrobit také příslušným etickým standardům, aby tyto technologie byly s ohledem na svá rizika schopny přinést klientům požadovaný prospěch.

Nevyhnutelnost využívání moderních technologií při zodpovědném poskytování právních služeb 

Základní povinností advokáta a etickou maximou je povinnost chránit a prosazovat oprávněné zájmy klienta. Advokát by měl být v rámci svých schopností a povinnosti náležité odborné péče schopen využít veškerých dostupných prostředků, které mu umožní tento účel naplnit, a to vč. dostupných technologických řešení.

Aby mohla být moderní technologická řešení vč. systémů umělé inteligence do poskytování právních služeb zapojena, samozřejmě si advokáti musí být existence takové technologie v první řadě vědomi; za druhé musí být schopni posoudit, zda je daná technologie dostatečně kompetentní k řešení příslušného problému.[14]

Advokacie však má v obecném povědomí pověst spíše konzervativní profese, a nikoliv inovativního, flexibilního či dynamicky rostoucího sektoru.[15] Povědomí o nových technologiích tak mezi advokáty sice roste,[16] může ale narážet na averzi k riziku nebo na preferenci zavedených a předvídatelných standardů. V kontextu systémů umělé inteligence tak z těchto důvodů může dojít k jejich neopodstatněnému nevyužívání. Obdobné riziko pak může představovat i nadužívání umělé inteligence, jak bude blíže představeno níže.[17], [18]

Na rozdíl od jiných jurisdikcí[19] nebylo v České republice navzdory mnoha pokusům zavedeno povinné vzdělávání advokátů[20] – s ohledem na revoluční potenciál nových technologických nástrojů však budou stále patrnější rozdíly mezi advokáty, kteří si tyto nové nástroje osvojí, a mezi těmi, kteří jejich užívání podcení.

Z obecných požadavků kladených na profesní způsobilost advokátů a příslušné etické standardy by však měla být dovoditelná přinejmenším elementární povinnost udržovat si odbornou způsobilost a znalosti v souladu s vývojem společnosti a technologie. Advokáti by tak měli být schopni využívat moderní technologické prostředky k efektivnímu plnění svých právních povinností, vč. ochrany klientských dat a zajištění dostatečné kybernetické bezpečnosti.

Americká advokátní komora (American Bar Association) např. přímo v rámci svých tzv. modelových pravidel (Model Rules of Professional Conduct) zahrnula povinnost, aby advokáti v rámci udržování své způsobilosti drželi krok se změnami v právu a v právní praxi, vč. výhod a rizik spojených se zaváděním nových technologií, a aby se zúčastnili povinného vzdělávání.[21]

K využívání moderních technologií advokáty se vyjadřuje i ČAK, a to zejména v rámci svého výkladového stanoviska k poskytování právních služeb online ze dne 9. dubna 2019[22] a dále v rámci již výše představeného stanoviska představenstva ČAK k užívání umělé inteligence při poskytování právních služeb ze září 2023.[23] Ačkoliv tato stanoviska nejsou koncipována jako aktivní výzva k užívání moderních technologií, o možnosti užívání technologií ze strany advokátů přinejmenším zevrubně informují a nepochybně vyjasňují některá výkladová úskalí týkající se jejich zapojení do advokátní praxe.

V rámci zachování náležité odborné péče při poskytování právních služeb a s ohledem na revoluční potenciál moderních systémů umělé inteligence je nevyhnutelné, že nejefektivnějším způsobem poskytování celé řady právních služeb bude synergické využití těchto technologií. Aby došlo k maximalizaci možného užitku, bude od advokátů vyžadována otevřenost změnám a nezbytná míra technologické kompetence. Této kompetence lze jistě dosáhnout po soukromé ose každého jednotlivého advokáta prostřednictvím nejrůznějších školení ze strany technologických společností či ze strany poučenějších kolegů advokátů. Nicméně skutečný potenciál má plošné a včasné zahrnutí této problematiky do povinných profesních školení a do univerzitních vzdělávacích programů a učebních osnov.

V opačném případě hrozí výše nastíněná rizika – kromě nedostatečného užívání systémů umělé inteligence může ze strany advokátů naopak docházet k přílišnému spoléhání se na tyto technologické nástroje a k jejich excesivnímu nadužívání. Advokáti musí být schopni porozumět inherentním vlastnostem a rizikům dané technologie, stejně jako podmínkám a důsledkům jejího užívání.[24]

Případy takového rizika se přitom již začínají objevovat. V květnu 2023 např. newyorský advokát ve svém soudním podání citoval soudní rozhodnutí, která mu byla vygenerována nástrojem ChatGPT.[25] Problémem však bylo, že tato rozhodnutí nikdy neexistovala, neboť jejich obsah a spisové značky byly vygenerovány pouze na pravděpodobnostní bázi ze strany umělé inteligence. Pokud uživatel takového systému nemá detailnější povědomí o jeho schopnostech a fungování, nelze se divit, že výsledky takové rešerše automaticky převezme, jako je zvyklý z jiných informačních systémů.[26]

V reakci na tyto a další kontroverze je vhodné zmínit i postoj amerického soudce Brantleyho Starra, který svým nařízením přikázal advokátům učinit prohlášení, že k přípravě jejich procesních podání nebyly využity systémy generativní umělé inteligence.[27] V kontextu technologického pokroku je však takový závěr neudržitelný. K zapojení systémů umělé inteligence totiž směřuje i sama justice. Jakmile dojde k její úspěšné elektronizaci (nakolik se toto snažení může zdát stále poměrně vzdálené),[28] bude vytvořen prostor pro zapojení systémů umělé inteligence do asistence soudců při analýze procesních podání. V této souvislosti mohou navíc vznikat další etické otázky – např. nakolik bude pro „soudní“ umělou inteligenci stravitelnější procesní vyjádření, na němž se podílela „advokátní“ umělá inteligence, a jakým způsobem by se takto připravovaná vyjádření odrazila v rozhodovací praxi. Umělá inteligence nicméně může přispět i k hodnocení a analýze způsobu rozhodování konkrétních soudů či soudců; to ostatně ve Francii vedlo k zákonnému zákazu takového zpracování informací.[29] O udržitelnosti takového zákazu lze však rovněž polemizovat.

Etický rozměr nadužívání umělé inteligence advokáty však může vést také k dalšímu, poměrně ponurému vyústění. Umělá inteligence bude přirozeně primárně využívána při výkonu repetitivních a automatizovatelných úkonů. Její generativní podoba je nicméně schopna nahradit i čistě kreativní výseč právních činností. Pokud advokáti budou umělou inteligenci využívat k formulaci svých tradičně kreativních výstupů, jako jsou nejrůznější právní stanoviska, memoranda či procesní podání, lze se domnívat, že přirozeným důsledkem zapojení umělé inteligence může být pozvolná regulace vlastní originální tvorby a určitá degenerace souvisejících schopností.

S ohledem na originální tvorbu je možné rovněž polemizovat nad soustavou a obsahem dat, z nichž bude umělá inteligence čerpat své závěry. Čím více bude umělá inteligence zapojována do procesu přípravy např. procesních podání, tím více se budou její výstupy promítat do soudních závěrů. Tím méně se však v této oblasti bude moci umělá inteligence v budoucnosti spolehnout na čerpání dat vyplývajících ze skutečně originální lidské tvorby – o to spíše, bude-li se umělá inteligence také podílet na přípravě soudních rozhodnutí. Vezmeme-li přitom v potaz veškerý (digitalizovaný) judikatorní obsah, který byl dosud vytvořen,[30] můžeme se ptát, kolik životních situací je v judikatuře již zaznamenáno a zda již bylo napsáno dostatečné množství textu, z něhož se může umělá inteligence „inspirovat“ k vypracování řešení nových sporných situací. Prvotní odpovědí zřejmě bude, že dostatečné množství textu nebude napsáno nikdy; svět se vyvíjí, problémy se stávají komplexnějšími, řešení obtížných situací navíc často není intuitivní. Pokud přitom budou dokola omílána ta samá data, ze kterých bude pro účely svého tréninku umělá inteligence čerpat, prostor k jejímu dalšímu vývoji se zmenšuje. Takovou situaci lze analogicky přirovnat k opakovanému skenování jednoho dokumentu, jehož obsah s každým dalším skenem více bledne. Nedostatek originální tvorby tak představuje zásadní regresní potenciál, který může pro budoucnost umělé inteligence představovat riziko autodegenerace.[31]

Ačkoliv výše uvedené obavy mají své empirické opodstatnění, nelze vyloučit, že se postupný vývoj bude ubírat pozitivnějším směrem. Namísto ponurých vizí o postupném regresu tvůrčího potenciálu advokátů či autodegeneraci umělé inteligence může být důsledkem jejího zapojení do advokátní praxe paradoxně i vytvoření prostoru pro skutečně originální tvorbu. S ohledem na prakticky okamžitou schopnost analyzovat dostupnou judikaturu nebudou muset advokáti znovu a znovu objevovat již objevené, ale větší pozornost budou moci zaměřit na tříbení interpretačních nuancí, které mohou vést k novým úhlům pohledu na sporné otázky.

Povinnost mlčenlivosti a nakládání s klientskými daty

Při zapojení systému umělé inteligence do poskytování právních služeb advokátem budou zpravidla využívány služby třetích stran, které umožňují provoz daného systému (např. i na cloudu). Každé takové operační nastavení je třeba podrobit jedné z nejvýznamnějších povinností advokátů, kterou je povinnost mlčenlivosti[32], [33] – základní pilíř advokacie.[34] V těchto případech je tak nezbytné být si plně vědom toho, kdo a jak s klientskými daty zachází.

Lze se domnívat, že využívání systémů umělé inteligence od renomovaných poskytovatelů bude při současném stavu technologií představovat náležitě bezpečný způsob nakládání s daty. Tyto softwarové společnosti budou bezpochyby disponovat takovou úrovní kybernetické bezpečnosti, které se budou advokáti či advokátní kanceláře stěží vyrovnávat.[35]

Primární odpovědnost za ochranu advokátního tajemství a dodržování povinnosti mlčenlivosti však bude vždy spočívat právě na advokátech samotných. Tato odpovědnost zahrnuje pečlivý výběr spolehlivých poskytovatelů příslušných softwarových řešení, formulování vhodných smluvních podmínek a garancí, které umožní udržet plnou kontrolu nad klientskými daty a zároveň dodržovat všechny relevantní právní předpisy a odborné postupy. Přinejmenším by mělo jít např. o dodržování a pravidelné obnovování mezinárodních bezpečnostních norem ISO, smluvní záruky týkající se (ne)zpřístupňování informací třetím stranám (vč. orgánů veřejné moci), záruky v oblasti ochrany osobních údajů nebo závazek nevyužívat ukládaná data pro vlastní účely poskytovatele.[36] Taková smluvní ujednání by měla rovněž reflektovat § 21 odst. 9 písm. a) zák. o advokacii.[37]

S ohledem na očekávanou proliferaci nejrůznějších poskytovatelů systémů umělé inteligence a liberalizaci relevantního trhu lze očekávat, že ne všichni z těchto poskytovatelů budou sofistikovanými stranami, které se a priori přizpůsobí náročným zákonným požadavkům kladeným na advokáty při poskytování právních služeb. Jeden ze zamýšlených cílů poskytovatele daného technologického řešení může např. být právě sběr dat pro trénink vlastního systému a dosažení co nejlepších výsledků.

V souvislosti s povinností mlčenlivosti je tak třeba doporučit podrobně přezkoumat i smluvní podmínky užívání příslušného systému a podmínky autorskoprávní ochrany datových vstupů a finálních výstupů. Známý nástroj ChatGPT např. ve svých obchodních podmínkách uvádí, že společnost OpenAI jako poskytovatel dané služby (i) na uživatele plně převádí veškerá práva týkající se finálních výstupů a že (ii) nahrané vstupy mohou být, mj., využity k poskytování, udržování, vývoji a zlepšování služeb. Uživatel má nicméně právo nesouhlasit s tím, aby byla jím nahraná data využívána k trénování modelů umělé inteligence.[38]

Dalším příkladem mohou být obchodní podmínky společnosti Legalogic Ltd. týkající se využívání umělé inteligence LawGeex zaměřené na automatizaci revize smluvní dokumentace. Tyto obchodní podmínky s ohledem na nahrané datové vstupy mj. uvádějí, že zasláním uživatelských příspěvků uživatel souhlasí s celosvětovou, nevýhradní, bezplatnou, trvalou, sublicencovatelnou a převoditelnou licencí k používání, reprodukci, distribuci, přípravě odvozených děl a předvádění uživatelských příspěvků.[39] Pro lepší vysvětlení následně tyto obchodní podmínky lakonicky konstatují, že společnost Legalogic Ltd. v podstatě může nahraná data užívat, jak se jí zlíbí, a pokud s tím někdo nesouhlasí, nemá jí tato data zasílat.[40]

V souvislosti s kybernetickým zabezpečením klientských dat je vhodné poukázat také na výše uvedené zákonné standardy náležité péče, která je po advokátech vyžadována.[41] Tyto standardy totiž stricto sensu neposkytují dostatečný interpretační prostor pro zohlednění stávající technologické reality a s ní souvisejících rizik – v krajním případě lze totiž dospět i k interpretaci, že by advokáti měli zajistit absolutní bezpečnost klientských dat.[42] Takový požadavek by však byl objektivně nesplnitelný.[43]

V tomto ohledu se tedy jistě lze inspirovat moderními právními předpisy, jako je např. obecné evropské nařízení o ochraně osobních údajů (GDPR)[44] nebo zákon o kybernetické bezpečnosti.[45] Tyto předpisy pragmaticky reflektují nepředvídatelnost technologického vývoje a nemožnost dokonalé právní jistoty – do popředí je tak stavěna především praktická užitečnost právní úpravy založená na odstupňovaném vyhodnocení relevantních rizik.[46]

Informování klienta ohledně zapojení umělé inteligence a o souvisejících rizicích

Základní povinností týkající se komunikace mezi advokátem a klientem je ust. čl. 9 odst. 1 usnesení představenstva ČAK č. 1/1997 Věstníku, kterým se stanoví pravidla profesionální etiky a pravidla soutěže advokátů České republiky (etický kodex), ve znění pozdějších předpisů (dále jen „Etický kodex“), které stanoví, že „Advokát je povinen klienta řádně informovat, jak vyřizování jeho věci postupuje, a poskytovat mu včas vysvětlení a podklady potřebné pro uvážení dalších příkazů.“ Tuto povinnost je samozřejmě třeba brát jako minimální standard, který je advokát povinen dodržet za jakýchkoliv okolností. S ohledem na veškeré důsledky a rizika související s využíváním systému umělé inteligence lze doporučit, aby o takovém zapojení umělé inteligence byl klient náležitým způsobem informován.[47] Pro účely nesení odpovědnosti může hrát rovněž určitou roli, nakolik a jakým způsobem byl klient o využití daného technologického řešení informován. Případné odpovědnosti za škodu se však pochopitelně nebude možné zbavit tím, že by se advokát se svým klientem domluvil na jejím vyloučení s odkazem na využití systému umělé inteligence.[48]

Podrobná informovanost klienta ohledně případného zapojení systému umělé inteligence je ostatně s ohledem na povinnost mlčenlivosti zároveň základním předpokladem pro zapojení takového systému. Blíže je tato povinnost rozvedena také v bodě 6 aktuálního stanoviska ČAK týkajícího se užívání umělé inteligence při poskytování právních služeb: „Předchozí souhlas klienta k tomu, aby mohl advokát zpracovávat informace či údaje, které mu byly poskytnuty klientem nebo které obsahují informace o klientech či jejich případech (a to i v případě, že tak činí pouze proto, aby se AI ‚učila‘ a zdokonalovala tak své schopnosti – jak je uvedeno v bodě 5 tohoto stanoviska), musí obsahovat výslovné prohlášení, že klient ví, že AI může fungovat nepředvídatelně, a také výslovný souhlas, že může AI sdílet tyto informace (byť anonymizované) s blíže neurčenými podobnými systémy.“[49]

Přiměřenost odměny s ohledem na vyšší automatizaci právních služeb

Ruku v ruce se zvýšenou efektivitou práce advokáta při využívání systémů umělé inteligence kráčí konkurenční výhoda v podobě možnosti nabídnout klientům výhodnější sazbu. Bez ohledu na čistě ekonomický rozměr takové skutečnosti jde v případě odměny advokáta také o další z důležitých etických povinností advokáta. Advokáti jsou povinni svým klientům poskytovat pravdivé informace o očekávaném rozsahu svých výkonů[50] a případná smluvní odměna musí být sjednána přiměřeným způsobem.[51]

V případě, že by sice technologické řešení advokátům výrazně ušetřilo čas strávený klientskou prací, ale poplatky za využití takového systému by překračovaly výši odměny, která by za jiných okolností odpovídala práci odvedené ze strany advokáta, přičemž by takové poplatky byly následně účtovány klientovi, mohou vzniknout pochybnosti o přiměřenosti fakturované odměny advokáta. Zároveň je třeba zohlednit skutečnost, že jakýkoliv výstup umělé inteligence by měl být podroben revizi ze strany advokáta jako primárního garanta kvality poskytovaných právních služeb.

Praxe však ukazuje, že cena za využití moderních technologií nebude nepřekonatelně vysoká. Ta nejlepší technologická řešení si zpravidla budou moci jako první dovolit spíše velké mezinárodní kanceláře, nicméně trh právních technologií prochází velmi rychlou demokratizací. Má-li tak umělá inteligence představovat nástroj k vyšší efektivitě, lze předpokládat, že její využití většinově povede k celkovému snížení nákladů dané právní služby.

Odpovědnost advokáta za škodu způsobenou ze strany pomocníka a za volbu vhodného pomocníka

Důležitým aspektem v souvislosti s využíváním služeb poskytovaných třetími stranami je nastavení advokátní odpovědnosti za škodu způsobenou jinou osobou než samotným advokátem. Nejprve je však vhodné vyjasnit povahu odpovědnosti za škodu způsobenou samotným advokátem, a to v návaznosti na striktně vymezené standardy náležité péče advokáta, které byly představeny výše.

S ohledem na skutečnost, že advokáti ve většině případů poskytují své služby na základě smluvního vztahu, v případě porušení smluvní povinnosti ze strany advokáta se klient může dovolat objektivní odpovědnosti za škodu ve smyslu § 2913 o. z.[52] Pokud by přitom taková smluvní povinnost nespočívala v konkrétním výsledku, ale v soustavném a řádném poskytování právních služeb, pak bude třeba případné tvrzené porušení smluvní povinnosti poměřovat s tím, jaká míra odborné péče byla ze strany advokáta vynaložena, a tedy zda lze vůbec o porušení smluvní povinnosti uvažovat.

Vedle ust. § 2913 o. z. je stěžejním ustanovením vymezujícím odpovědnost advokátů § 24 zák. o advokacii. Převažující názory (jak v soudní judikatuře,[53] tak v literatuře[54]) se přiklánějí k závěru, že tato odpovědnost představuje objektivní odpovědnost za škodu – tomuto závěru přitom trefně oponují např. Tichý[55] a Melzer,[56] a to mj. s ohledem na absenci jeho patřičného odůvodnění. Oba autoři podrobně argumentují, proč by se v případě § 24 zák. o advokacii mělo jednat o subjektivní odpovědnost za zavinění s objektivizovaným standardem péče.

Neuplatní-li se objektivní odpovědnost na základě existence smluvního vztahu, pak lze ve prospěch subjektivní povahy odpovědnosti advokáta argumentovat rovněž praktickým rozměrem povahy odpovědnosti advokáta. Tím je skutečnost, že advokát by měl zpravidla odpovídat za soustavné plnění svých povinností, nikoliv za výsledek své činnosti – je tedy plně v jeho silách ovlivnit míru kvality jím poskytované služby a míru splnění jeho povinnosti.[57] I v tomto ohledu je tak z teleologického hlediska subjektivní odpovědnost schopna vhodněji reflektovat realitu poskytování právních služeb advokáty a potřebu soustavného dodržování náležitých standardů péče.

V každém případě, co se týče odpovědnosti advokáta za škodu způsobenou ze strany třetích osob (např. ze strany poskytovatele využívaného systému umělé inteligence), je třeba aplikovat pravidla ohledně odpovědnosti advokáta za škodu způsobenou svým zaměstnancem či pomocníkem ve smyslu § 24 zák. o advokacii nebo ve smyslu obecné úpravy dle § 1935,[58] 2434[59] či 2914 o. z.[60] Takto způsobená škoda přitom bude obvykle vyplývat ze zanedbání povinnosti náležitého dohledu a kontroly příslušných výstupů. Málokdy však bude docházet k případům, kdy by umělá inteligence jednala v roli pomocníka přímo s klientem bez ingerence samotného advokáta – proti takovému postupu ostatně varuje i příslušné stanovisko představenstva ČAK k užívání umělé inteligence.[61] Rozhodně však nelze vyloučit, že dojde k dílčím pochybením, a klientům tak budou právní služby poskytovány např. prostřednictvím online chatbota. Právě v takovém případě se lze v závislosti na konkrétních okolnostech odkázat na ustanovení týkající se odpovědnosti za škodu při využití třetích osob.

Pokud se advokát rozhodne k poskytnutí právních služeb vy­užít služby poskytovatele, který se zaváže k samostatnému výkonu určité činnosti, příp. pokud advokát klienta na takového poskytovatele sám odkáže, měl by si být ve smyslu výše uvedených ust. § 2434 a 2914 o. z. vědom zásady culpa in eligendo, tedy odpovědnosti za škodu způsobenou chybným výběrem takového poskytovatele.

S ohledem na skutečnost, že advokátem využívané systémy umělé inteligence budou zpravidla poskytovány právě ze strany třetích osob na základě samostatných smluvních vztahů mezi advokátem a takovou třetí osobou, lze očekávat, že případný regresní nárok, který by advokát vůči takové osobě mohl teoreticky uplatnit, bude limitován v rámci příslušných obchodních podmínek.[62]

Kromě toho, že advokát může v případě chybné volby pomocníka čelit následkům odpovědnosti za škodu, může být vystaven i porušení povinnosti dle čl. 11 odst. 3 Etického kodexu, který stanoví, že se advokát „nesmí podílet na činnosti osob, které poskytují právní služby, ačkoliv k tomu nejsou oprávněny, ani takovou činnost podporovat. Ve zvlášť závažných případech oznámí osobu, provádějící takovou činnost, Komoře.“

Vzhledem k technologickému rozmachu bude s největší pravděpodobností čím dál častěji docházet k případům, kdy bude obtížné vyhodnotit, zda využití určitého technologického nástroje nebude naplňovat znaky neoprávněného poskytování právních služeb – tedy tzv. vinklaření.[63]

Lze také předpokládat, že využívání systémů umělé inteligence a související advokátní odpovědnost začnou reflektovat rovněž podmínky příslušného profesního pojištění advokátů.

Užití systémů umělé inteligence ze strany neoprávněných poskytovatelů právních služeb

S příchodem nejrůznějších poskytovatelů nových technologických nástrojů umožňujících efektivnější poskytování právních služeb souvisí také riziko, že při poskytování právních služeb budou samotní advokáti obcházeni. V takových případech bude mnohdy otázkou, kde je hranice mezi poskytováním právních služeb a poskytováním např. pouhé právní informace. Definice právní služby přitom z podstaty věci nemůže být uzavřená či taxativní. Právě nejistota ohledně toho, kde daná hranice ne­oprávněného poskytování právních služeb leží, může některé zájemce o vstup na trh s právními informacemi odradit. V případě překročení příslušných povinností totiž hrozí sankce až do výše 3 mil. Kč.[64]

V kontextu výše nastíněného konzervativního přístupu advokátní profese lze poukázat i na genezi prvního z výše uvedených stanovisek ČAK,[65] a to právě v souvislosti s vymezením hranice poskytování právní služby. Ještě než došlo k vydání daného stanoviska, byla v průběhu roku 2018 učiněna výzva vůči advokátní veřejnosti ohledně případných připomínek k jeho zveřejněnému návrhu. Tento původní návrh obsahoval ustanovení, že „Poskytování trvalých či dočasných užívacích práv k počítačovému programu, v němž si uživatel sám určuje úpravu finální listiny podle nabízených možností (např. jako program Rocket Lawyer), není poskytováním právní pomoci, ale poskytováním právních informací, a to bez ohledu, zda se tak děje úplatně, či bezúplatně. Pokud však takový program používá podle výslovných požadavků klienta advokát, aby mu požadovanou listinu připravil, o právní službu se jedná.“[66] Do finální podoby stanoviska se však zjevně z opatrnostních důvodů tato část nedostala. Je třeba připustit, že takový závěr by byl výrazným odklonem od tradičně konzervativního přístupu a v roce 2019 by měl nevídaně disruptivní a liberalizační potenciál.

Dlužno rovněž podotknout, že společnost Rocket Lawyer (obdobně jako společnost LegalZoom) byla opakovaně vystavena řízením ohledně neoprávněného poskytování právních služeb.[67], [68] To pro ni však pozitivně vedlo k získání přelomového oprávnění k mimoadvokátnímu poskytování právních služeb.[69] Několika kontroverzím v USA aktuálně čelí také společnost DoNotPay, která své nástroje v minulosti prezentovala jako „robotického právníka“ – její zakladatel např. neúspěšně navrhoval, aby byl jeho software použit v reálném čase k formulaci právních argumentů při nařízeném soudním jednání.[70] Služba DoNotPay přitom od Americké advokátní komory v roce 2020 obdržela cenu Brown Award za odhodlání ke zvýšení dostupnosti právních služeb nízkopříjmovým skupinám.[71]

Tyto příklady zahraničních společností sice představují případy, které se dle výše uvedené interpretace poskytování právních služeb jeví jako hraniční (nebo v případě „robotického právníka“ společnosti DoNotPay spíše již za hranou), navzdory četným soudním řízením týkajícím se neoprávněného poskytování právních služeb tyto společnosti nicméně nadále fungují, přičemž jsou hledány regulatorní cesty, jak jim poskytování právních služeb umožnit.

V praxi by ostatně bylo dlouhodobě neudržitelné, pokud by poskytování právních služeb ve smyslu zák. o advokacii bylo interpretováno do natolik extenzivní míry, že by pod něj bylo možné podřadit činnost jakéhokoliv systému schopného autonomního poskytování právních informací široké veřejnosti. Tedy za předpokladu, že takový systém není jako právní služba inzerován, resp. že v rámci svého marketingu nevystupuje jako náhrada za odborné právní služby poskytované ze strany advokátů.[72]

S vizí soustavného zdokonalování systémů umělé inteligence se této nevyhnutelné realitě budou nuceny přizpůsobit i ostatní zahraniční jurisdikce. Online chatboti schopní promptně analyzovat relevantní data budou okamžitě dostupní kdekoliv po světě a v jakémkoliv jazyce – pokud tyto nástroje budou samy sebe kvalifikovat jako asistenční komplementární nástroje k nezastupitelné práci právních profesionálů, byla by jejich vnitrostátní dispropor­čně přísná regulace kontraproduktivní.

Některé směry týkající se liberalizace poskytování právních služeb shrnul anglický „právní futurolog“ Richard Susskind, když uvedl, že se v této souvislosti objevují zejména dva přístupy: „‚benevolentní ochránci‘“ a ‚žárliví dozorci‘. Ti první vycházejí z toho, že smyslem profese je naplňovat zájem společnosti. A když se objeví levnější způsob poskytování služeb zákazníkům, klidně se do něj pustí. Ti druzí vycházejí z toho, že smyslem komory je udržovat naše živobytí. Přitom budou tvrdit, že to dělají kvůli ochraně spotřebitele před nekvalitní službou.“[73]

Optimálním přístupem k možné liberalizaci právního poradenství nicméně nepochybně bude určitý kompromis. Právní prostředí a povědomí o právu je zapotřebí kultivovat a nedopustit rozmělnění právní odbornosti. To však nutně neznamená, že by měly být kladeny neopodstatněné překážky takovým technologickým řešením, která jsou zaměřena na právní „asistenci“ i bez ingerence advokáta. Typicky se bude jednat o poskytování právních informací prostřednictvím rešerší spočívajících v konsolidaci veřejně dostupných informací. Samozřejmě za předpokladu, že takovou asistenci využije koncový uživatel, a nikoliv pokoutný poskytovatel právních služeb.

Pokud nicméně budou služby generativní umělé inteligence využívány přímo ze strany koncových uživatelů (potenciálních klientů), příp. ze strany pokoutných poskytovatelů právních služeb, v závislosti na využívaném typu systému umělé inteligence může hrozit zvýšení výše uvedeného rizika citování neexistujících soudních rozhodnutí či neexistujících ustanovení právních předpisů.

Tato rizika přitom mohou mitigovat samotní advokáti, pokud převezmou iniciativu a sami budou příslušná technologická řešení aktivně využívat. Zapojení advokátů (vč. vedení právní a technologické osvěty) může omezit vytvoření díry na trhu, která by jinak mohla být zaplněna neoprávněnými poskytovateli právních služeb. S přihlédnutím k zahraničním zkušenostem se však nejeví jako realistické (a pragmatické) zabránění tomu, aby moderní technologická řešení využívali přímo klienti. Ani v tomto případě by přitom nemělo být a priori vyloučeno advokátní zapojení. Lze např. uvažovat o přípravě určité formy „kurátorovaného“ seznamu několika systémů umělé inteligence, a to vč. jejich povahy či případných výhrad a rizik. Pokud by naopak určité technologické řešení bylo v rozporu s oprávněním poskytovat právní služby, příslušný poskytovatel by se vystavoval riziku svého zahrnutí do rubriky Ne­oprávněné poskytování právních služeb, jak je uvedena na stránkách ČAK.[74]

Závěr

Etická pravidla vztahující se k poskytování právních služeb musí být náležitě zohledněna i v souvislosti s používáním moderních technologií. Advokáti musí být informováni o schopnostech umělé inteligence a dalších technologií, aby byli schopni poskytovat klientům co nejefektivnější řešení jejich právních otázek. Jednotlivé technologické a právní výzvy přitom budou vykazovat exponenciální nárůst. Rozsáhlou a samostatnou problematiku, které budou advokáti v tomto ohledu čelit, představuje zapojení umělé inteligence v rámci soudního rozhodování.

Povinnost advokáta jednat v souladu s etickými zásadami a s náležitou odbornou péčí ve svém důsledku tedy musí nevyhnutelně zohledňovat i potřebu zapojení technologických nástrojů tam, kde je to vhodné.

Není pochyb o tom, že umělá inteligence představuje reálný příslib zásadní proměny právní praxe. Liberalizace a demokratizace trhu s relevantními technologickými nástroji s sebou však přináší také rizika souvisejí s proliferací neoprávněných poskytovatelů právních služeb. I v této souvislosti tak bude ze značné části na advokátech, aby byli s ohledem na užívání moderních technologií schopni převzít iniciativu a byli na související výzvy patřičně připraveni.

 

Mgr. Martin Štípa působí jako advokát, partner RESOLV, advokátní kancelář, v Praze.

Ilustrační foto: canva.com


[1] Ačkoliv zásadní pokroky se na poli vývoje strojového učení objevují především od roku 2015, důležité milníky lze zaznamenat nejpozději od roku 2012. A. T. Drofer: Ten Years of AI in Rewiew, Medium [online], 23. 5. 2023 [cit. 2024-02-29], dostupné na: https://towardsdatascience.com/ten-years-of-ai-in-review-85decdb2a540.

[2] J. Clark: Why 2015 Was a Breakthrough Year in Artificial Intelligence, Bloomberg [online], 8. 12. 2015 [cit. 2024-02-29], dostupné na: https://www.bloomberg.com/news/articles/2015-12-08/why-2015-was-a-breakthrough-year-in-artificial-intelligence; A. Hern: 2016: the year AI came of age, The Guardian [online], 28. 12. 2016 [cit. 2024-02-29], dostupné na: https://www.theguardian.com/technology/2016/dec/28/2016-the-year-ai-came-of-age; S. Venkatachalam: 2017 is the year of artificial intelligence. Here’s why, World Economic Forum [online], 24. 5. 2017 [cit. 2024-02-29], dostupné na: https://www.weforum.org/agenda/2017/05/2017-is-the-year-of-artificial-intelligence-here-s-why/; C. Metz: Robots Learn, Chatbots Visualize: How 2024 Will Be A.I.’s ‘Leap Forward’, The New York Times [online], 8. 1. 2024 [cit. 2024-02-29], dostupné na: https://www.nytimes.com/2024/01/08/technology/ai-robots-chatbots-2024.html.

[3] N. Maslej, L. Fattorini, E. Brynjolfsson, J. Etchemendy, K. Ligett, T. Lyons, J. Manyika, H. Ngo, J. C. Niebles, V. Parli, Y. Shoham, R. Wald, J. Clark, R. Perrault: “The AI Index 2023 Annual Report,” AI Index Steering Committee, Institute for Human-Centered AI, Stanford University, Stanford, CA, April 2023.

[4] Extrapolovány jsou výsledky studie zaměřené na americké advokáty, viz K. Ellingrud et al.: Generative AI and the future of work in America, McKinsey Global Institute, červenec 2023.

[5] Srov. např. E. A. Rayo: AI in Law and Legal Practice – A Coprehensive View of 35 Current Applications, Emerj, 20. 5. 2019 [cit. 2024-02-29], dostupné na: https://emerj.com/ai-sector-overviews/ai-in-law-legal-practice-current-applications /.

[6] Uvedený výčet představuje pouze základní přehled několika oblastí, v nichž mohou systémy umělé inteligence najít v rámci poskytování právních služeb své uplatnění.

[7] Představenstvo ČAK: Stanovisko ČAK k využívání AI při poskytování právních služeb, Advokátní deník [online], 15. 9. 2023 [cit. 2024-02-29], dostupné na: https://advokatnidenik.cz/2023/09/15/stanovisko-cak-k-vyuzivani-ai-pri-poskytovani-pravnich-sluzeb).

[8] Celé znění § 1 odst. 2 zák. o advokacii zní: „Poskytováním právních služeb se rozumí zastupování v řízení před soudy a jinými orgány, obhajoba v trestních věcech, udělování právních porad, sepisování listin, zpracovávání právních rozborů a další formy právní pomoci, jsou-li vykonávány soustavně a za úplatu. Poskytováním právních služeb se rozumí rovněž činnost opatrovníka pro řízení ustanoveného podle zvláštního právního předpisu, je-li vykonávána advokátem.“

[9] T. Karlík: Je tu teprve rok, ale už změnila svět. Umělá inteligence ChatGPT slaví narozeniny, ČT24 [online], 30. 11. 2023 [cit. 2024-02-29], dostupné na: https://ct24.ceskatelevize.cz/clanek/veda)je-tu-teprve-rok-ale-uz-zmenila-svet-umela-inteligence-chatgpt-slavi-narozeniny-343721.

[10] A. Tamkin, D. Ganguli: How Large Language Models Will Transform Science, Society, and AI, Stanford University Human-Centered Artificial Intelligence [online], 5. 2. 2021 [cit. 2024-02-29], dostupné na: https://hai.stanford.edu/news/how-large-language-models-will-transform-science-society-and-ai.

[11] V tomto ohledu lze s nadsázkou odkázat na slova postavy Chucka McGilla v seriálu Better Call Saul, který před nekvalifikovaným poskytováním právních služeb varuje slovy: „Slippin‘ Jimmy with a law degree is like a chimp with a machine gun. The law is sacred. If you abuse that power, people get hurt.“

[12] § 5 zák. č. 89/2012 Sb., občanský zákoník (dále jen „o. z.“) a § 16 zák. o advokacii.

[13] L. Kramlová: Standard odborné péče advokáta v judikatuře, Advokátní deník [online], 19. 10. 2018 [cit. 2024-02-29], dostupné na: https://advokatnidenik.cz/2018/10/19/standard-odborne-pece-advokata-v-judikature/.

[14] Shodně D. Hricik, A.-L. S. Morgan, Asya-Lorrene, K. H. Williams: Ethics of Using Artificial Intelligence to Augment Drafting Legal Documents, 4 Tex. A&M J. Prop. L. 465 (2018), citující modelová pravidla Americké advokátní komory, Model Rules of Professional Conduct R. 5.3 (2018). A dále také citující W. E. Foster, A. L. Lawson: When to Praise the Machine: The Promise and Perils of Automated Transactional Drafting, 69 S.C. L. Rev. 597 (2018).

[15] Ačkoliv hypotetický izolovaný uživatel, který se o advokacii dozvídá např. pouze z příspěvků na profesní sociální síti LinkedIn, by mohl nabýt jiného dojmu.

[16] Wolters Kluwer: Embracing innovation, adapting to change, 2023 Future Ready Lawyer Survey Report, 2023.

[17] D. Lat: The Ethical Implications of Artificial Intelligence, Above the Law 2020 [online], nedatováno [cit. 2024-02-29], dostupné na: https://abovethelaw.com/law2020/the-ethical-implications-of-artificial-intelligence/.

[18] J. Cerny, S. Delchin, H. Nguyen: Legal Ethics in the Use of Artificial Intelligence, únor 2019, dostupné na: Legal Ethics in the Use of Artificial Intelligence (January 2019) (squirepattonboggs.com).

[19] Lawyers’ training systems, European Justice [online], 27. 11. 2020 [cit. 2024-02-29], dostupné na: https://e-justice.europa.eu/407/EN/lawyers__training_systems.

[20] T. Richter: Kdyby 14 000 noblesních advokátů, Hospodářské noviny [online], 7. 1. 2023 [cit. 2024-02-29], dostupné na: https://hn.cz/c1-59071280-kdyby-14-000-noblesnich-advokatu.

[21] American Bar Association: Rule 1.1 Competence – Comment, American Bar Association [online], nedatováno [cit. 2024-02-29], dostupné na: https://www.americanbar.org/groups/professional_responsibility/publications/model_rules_of_professional_conduct/rule_1_1_competence/comment_on_rule_1_1/.

[22] Výkladové stanovisko České advokátní komory k poskytování právních služeb online, Bulletin advokacie č. 5/2019, str. 7-8.

[23] Op. cit. sub 7.

[24] Obdobně viz op. cit. sub 17.

[25] G. M. McCreary: Ethical and Thoughtful Use of AI in the Legal Industry, Fox Rothschild [online], 3. 7. 2023 [cit. 2024-02-29], dostupné na: https://www.foxrothschild.com/publications/ethical-and-thoughtful-use-of-ai-in-the-legal-industry.

[26] Dle studie Stanfordské univerzity z ledna 2024 vykazují populární systémy generativní umělé inteligence, jako jsou GPT3.5, PaLM 2 a Llama 2, 75% chybovost v případech, kdy jsou dotázány na právní otázky týkající se soudního rozhodování. Viz M.  Dahl, V. Magesh, M. Suzgun, E. D. Ho: Hallucinating Law: Legal Mistakes with Large Language Models are Pervasive, Stanford University Human-Centered Artificial Intelligence [online], 11. 1. 2024 [cit. 2024-02-29], dostupné na: https://hai.stanford.edu/news/hallucinating-law-legal-mistakes-large-language-models-are-pervasive. Shodně též na str. 20 Nysba: Task Force on Artificial intelligence [online], 6. 4. 2024 [cit. 2024-02-29], dostupné na: https://nysba.org/app/uploads/2024/02/Task-Force-on-AI-Report-final.pdf.

[27] Srov. op. cit. sub 25.

[28] Blíže viz rozhovor s Lubošem Dörflem, předsedou Vrchního soudu v Praze. „Naposledy loni v listopadu jsme řešili výzvy spojené s umělou inteligencí. Některé země už začaly přijímat opatření, jak na ně justici a její počítačové vybavení a programy připravit. My zatím bojujeme pořád s tím, že máme programy z poloviny 90. let, které dosáhly kapacity, a udržujeme je, aby vůbec fungovaly. Výzva spojená s umělou inteligencí je pro nás opravdu hodně vzdálená hudba. M. Pokorný:  Jsme jen údržbáři, ne vizionáři. Když je problém, zakryjeme ho plachtou, říká šéf vrchního soudu | Hospodářské noviny (HN.cz)

[29] Viz např. A. McDonell, S. Traynor: France Bans Analytics of Judges’ Decisions, Lexology [online], 21. 6. 2018 [cit. 2024-02-29], dostupné na: https://www.lexology.com/library/detail.aspx?g=ff53dfbe-0fe6-4dee-8a1d-990bf8459020.

[30] A to nikoliv nutně pouze v rámci ČR, ale s ohledem na překladatelské schopnosti umělé inteligence i v jiných liberálně demokratických státech založených na obdobných právních principech a smyslu pro spravedlnost, jako je právní řád ČR.

[31] Shodně A. O. Acar: Has Generative AI Peaked? Harvard Business Review [online], 8. 11. 2023 [cit. 2024-02-29], dostupné na: Has Generative AI Peaked? (hbr.org)

[32] § 21 odst. 1 zák. o advokacii zní „Advokát je povinen zachovávat mlčenlivost o všech skutečnostech, o nichž se dozvěděl v souvislosti s poskytováním právních služeb.“

[33] Blíže viz nález Ústavního soudu ze dne 25. 11. 2010, sp. zn. II. ÚS 889/10: „Povinnost mlčenlivosti je základním předpokladem pro poskytování právní pomoci, a tím i nezbytnou podmínkou fungování demokratické společnosti. Výkon profese advokáta vychází z důvěrného vztahu mezi advokátem a klientem a z důvěry klienta v mlčenlivost advokáta.

[34] D. Vítek, L. Suchánková: Advokátní tajemství v cloudu, Advokátní deník [online], 30. 12. 2020 [cit. 2024-02-29], dostupné na: https://advokatnidenik.cz/2020/12/30/advokatni-tajemstvi-v-cloudu/.

[35] Tamtéž.

[36] Tamtéž.

[37] § 21 odst. 9 písm. a) zák. o advokacii stanoví, že: „Povinnost mlčenlivosti v rozsahu stanoveném v odstavcích 1 až 8 se vztahuje obdobně i na […] zaměstnance advokáta nebo společnosti anebo zahraniční společnosti, jakož i na jiné osoby, které se s advokátem nebo ve společnosti anebo v zahraniční společnosti podílejí na poskytování právních služeb.“

[38] OpenAI: Terms of use [online], 14. 11. 2023 [cit. 2024-02-29], dostupné na: https://openai.com/policies/terms-of-use.

[39] V anglickém originále „By sending us your User Submissions, you’re giving us a worldwide, non-exclusive, royalty- free, perpetual, sublicenseable and transferable license to use, reproduce, distribute, prepare derivative works of display, and perform the User Submissions in connection with the Site and our (and our successor’s) business, including without limitation for redistributing part or all of the User Submission (and derivative works thereof) in any media formats and through any media channels and you hereby waive any moral rights in your User Submission, to the extent permitted by law. You also hereby grant each user of the Site or other viewer of the User Submission a non-exclusive right to use, reproduce, distribute, prepare derivative works of, display and perform such User Submissions.“ Viz Lawgeex: Terms of Use [online], 21. 1. 2016 [cit. 2024-02-29], dostupné na: https://www.lawgeex.com/terms-of-use/.

[40] V anglickém originále tamtéž: „Basically, it means that we can use your stuff in pretty much any way we want. So if you don’t want us to use your stuff, don’t sent it to us.“

[41] K této problematice se např. J. Brauner vyjadřuje tak, že „Spojení kategorické povinnosti advokátní mlčenlivosti a povinnosti vynaložit veškeré úsilí k zabránění újmy vede k závěru, že advokát exkulpace nemůže nikdy dosáhnout. Je nepřiměřené požadovat, aby advokát v souvislosti se svou povinností mlčenlivosti vyvinul veškeré úsilí k zajištění důvěrnosti klientských dat bez ohledu např. na náklady na zajištění příslušných bezpečnostních opatření. Vždy totiž existuje nějaké bezpečnější, ale také dražší či více omezující opatření, které lze zavést. Ze spojení ,veškeré úsilí‘ plyne, že advokát nemá jinou možnost než tato další opatření neustále zavádět.“ J Brauner: Dopady technologického vývoje na povinnosti advokáta na úseku kybernetické bezpečnosti, Advokátní deník [online], 15. 7. 2022 [cit. 2024-02-29], dostupné na: https://advokatnidenik.cz/2022/07/15/dopady-technologickeho-vyvoje-na-povinnosti-advokata-na-useku-kyberneticke-bezpecnosti/.

[42] Tamtéž.

[43] Blíže k problematice advokátní odpovědnosti viz níže, část nazvaná Odpovědnost advokáta za škodu způsobenou ze strany pomocníka a za volbu vhodného pomocníka.

[44] Nařízení Evropského parlamentu a Rady (EU) 2016/679 ze dne 27. dubna 2016 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů a o volném pohybu těchto údajů a o zrušení směrnice 95/46/ES (obecné nařízení o ochraně osobních údajů).

[45] Zákon č. 181/2014 Sb., o kybernetické bezpečnosti a o změně souvisejících zákonů (zákon o kybernetické bezpečnosti).

[46] Op. cit. sub 41.

[47] Poskytnutí takové informace nicméně není v rámci stanoviska ČAK k poskytování právních služeb online považováno v každém případě za nezbytné. Viz zejm. bod 6 in fine a též bod 7 op. cit. sub 22.

[48] Podrobněji viz následující část tohoto příspěvku, nazvaná Odpovědnost advokáta za škodu způsobenou ze strany pomocníka a za volbu vhodného pomocníka.

[49] Op. cit. sub 7.

[50] Čl. 10 odst. 1 Etického kodexu.

[51] Čl. 10 odst. 2 Etického kodexu.

[52] Srov. F. Melzer: Civilní odpovědnost za poradenství advokátem, Bulletin advokacie [online], 28. 11. 2018 [cit. 2024-02-29], dostupné na: http://www.bulletin-advokacie.cz/civilni-odpovednost-za-poradenstvi-advokatem#ftn35..

[53] Např. rozsudky NS ze dne 26. 2. 2003, sp. zn. 25 Cdo 1862/2001, ze dne 23. 8. 2007, sp. zn. 25 Cdo 2507/2005, ze dne 29. 9. 2009, sp. zn. 25 Cdo 2533/2007, ze dne 30. 4. 2009, sp. zn. 25 Cdo 508/2009, ze dne 26. 4. 2012, sp. zn. 25 Cdo 1390/2010.

[54] Např. J. Svejkovský, M. Vychopeň, L. Krym, A. Pejchal a kol.: Zákon o advokacii, Komentář, 1. vyd., C. H. Beck, Praha 2012, komentář k § 24, str. 168; V. Mandák: I. K počátku objektivní promlčecí doby nároku na náhradu škody způsobené advokátem klientovi v souvislosti s výkonem advokacie II. K povaze této odpovědnosti advokáta (objektivní odpovědnost), Bulletin advokacie č. 5/2009, str. 35 a násl.; Z. Buchta: K odpovědnosti advokáta za škodu způsobenou z neznalosti, Právní rozhledy č. 2/2008, str. 58 a násl.

[55] L. Tichý: K rozlišování mezi tzv. subjektivní a objektivní odpovědností – rozsudek NS o povaze odpovědnosti advokáta za škodu, Bulletin advokacie [online], 21. 2. 2013 [cit. 2024-02-29], dostupné na: http://www.bulletin-advokacie.cz/k-rozlisovani-mezi-tzv.-subjektivni-a-objektivni-odpovednosti.

[56] Op. cit. sub 52.

[57] Op. cit. sub 55.

[58] § 1935 odst. 1 o. z. zní: „Plní-li dlužník pomocí jiné osoby, odpovídá tak, jako by plnil sám.“

[59] § 2434 o. z. zní: „Příkazník provede příkaz osobně. Svěří-li provedení příkazu jinému, odpovídá, jako by příkaz prováděl sám; dovolil-li však příkazce, aby si ustanovil náhradníka, nebo byl-li tento nezbytně nutný, nahradí škodu, kterou způsobil chybnou volbou náhradníka.

[60] § 2914 o. z. zní: „Kdo při své činnosti použije zmocněnce, zaměstnance nebo jiného pomocníka, nahradí škodu jím způsobenou stejně, jako by ji způsobil sám. Zavázal-li se však někdo při plnění jiné osoby provést určitou činnost samostatně, nepovažuje se za pomocníka; pokud ho však tato jiná osoba nepečlivě vybrala nebo na něho nedostatečně dohlížela, ručí za splnění jeho povinnosti k náhradě škody.

[61] Op. cit. sub 7.

[62] Viz např. v anglickém originále čl. 9 obchodních podmínek systému Kira: „Except for damages arising from a party’s fraud or willful misconduct or misappropriation of intellectual property rights: in no event will (i) either party be liable for indirect, special, incidental or consequential damages, including, but not limited to, loss of profits, loss of revenues, data loss or usage, or loss of opportunities, arising out of or relating to this agreement or the services, even if such party has been advised of the possibility of such damages and (ii) either party’s total liability arising out of or relating to this agreement and/or the services, regardless of cause or theory of recovery, exceed one hundred dollars ($ 100). To the extent any liability of a party cannot be disclaimed, excluded or limited as aforesaid under applicable law, such liability shall be disclaimed, excluded and limited to the fullest extent permitted under applicable law.“ Kira Systems: Terms of Service [online], nedatováno [cit. 2024-02-29], dostupné na: https://kirasystems.com/terms-of-service/.

[63] Podrobněji viz následující část tohoto příspěvku.

[64] § 52d zák. o advokacii.

[65] Op. cit. sub 22.

[66] M. Maisner: Výzva advokátní veřejnosti: Diskutujme o podobě poskytování právních služeb online, Česká advokátní komora [online], 22. 11. 2018 [cit. 2024-02-29], dostupné na: http://www.bulletin-advokacie.cz/vyzva-advokatni-verejnosti?browser=full

[67] M. Juetten: Unauthorized Practice Of Law Claims Threaten Access To Justice, Forbes [online], 8. 5. 2018 [cit. 2024-02-29], dostupné na: https://www.forbes.com/sites/maryjuetten/2018/05/08/unauthorized-practice-of-law-claims-threaten-access-to-justice/?sh=892a42b67a51.

[68] B. S. Garner: October 2017 Ethically Speaking – Artificial Intelligence and Its Not-So-Artificial Legal Ethics Implications, Orange County Bar Association [online], nedatováno [cit. 2024-02-29], dostupné na: https://www.ocbar.org/All-News/News-View/ArticleId)2189/October-2017-Ethically-Speaking-Artificial-Intelligence-and-Its-Not-So-Artificial-Legal-Ethics-Implications.

[69] Rocket Lawyer: Rocket Lawyer Joins Utah in First US Initiative to Transform Legal Services, Rocket Lawyer [online], [cit. 2024-02-29], dostupné na: https://www.rocketlawyer.com/newsroom/rocket-lawyer-joins-utah-in-nations-first-program-to-transform-legal-services.

[70] M. Reynolds: Inside the claims against DoNotPay’s Joshua Browder and the ‚World’s First Robot Lawyer‘, Abajournal [online], 1. 12. 2023 [cit. 2024-02-29], dostupné na: https://www.abajournal.com/magazine/article/inside-the-claims-against-donotpays-joshua-browder-and-the-worlds-first-robot-lawyer.

[71] Tamtéž.

[72] Povaha takového „disclaimeru“ však nemusí být zcela liberační, jak osvědčují i četná řízení se společností LegalZoom. Podrobněji viz E. Vyhnánková: Poskytování právních služeb ve 21. století [online], Brno, 2019 [cit. 2024-02-28], dostupné na: https://is.muni.cz/th/yvb9u/, diplomová práce, Masarykova univerzita, Právnická fakulta. Vedoucí práce Jakub Harašta.

[73] T. Němeček: „Konec právníků“ nemusí být ponurý, Česká advokátní komora [online], [cit. 22. 2. 2019]. (Rozhovor s Richardem Susskindem publikovaný v Lidových novinách) prostřednictvím E. Vyhnánková, op. cit. sub 72.

[74] Česká advokátní komora [online], dostupné na: Neoprávněné poskytování právních služeb (cak.cz)

Go to TOP