AI sa využíva v právnej praxi aj u nás. V USA už padli pokuty za vymyslené prípady

V Bratislave sa 19. februára konalo stretnutie právnickej obce za účasti ministra spravodlivosti Borisa Suska na tému Budúcnosť vzdelávania v právnických povolaniach v kontexte nástupu umelej inteligencie.

Umelá inteligencia (AI) má potenciál výrazne zefektívniť právne služby a justíciu, najmä v oblasti spracovania, vyhľadávania a analýzy dát, prekladov či automatizovaného spracovania dokumentov, zhodli sa účastníci stretnutia.

Prišlo aj varovanie, že nesprávne využívanie AI môže viesť k ohrozovaniu systému ochrany práv a právneho štátu. Interný prieskum Slovenskej advokátskej komory (SAK) ukázal, že generatívnu umelú inteligenciu využíva skoro polovica advokátov.

Stretnutie zdôraznilo, že profil absolventov právnických fakúlt a budúcich justičných profesionálov musí naďalej stáť na klasickom vzdelávaní, ktoré je nevyhnutnou podmienkou aj správneho a zodpovedného využívania AI.

https://www.youtube.com/watch?v=ZJ7RaYykP_c
Stretnutie predstaviteľov justície: Budúcnosť vzdelávania v právnických povolaniach a AI

Anglo-americké právo využíva precedensy

Právny systém Slovenskej republiky sa zaraďuje do takzvaného kontinentálneho práva. Vychádza z pravidiel rímskeho práva a jeho základným zdrojom sú zákony.

Tam kde pôsobí anglo-americké právo (common law), sa však intenzívne spoliehajú na takzvané precedensy. Ide o predchádzajúce rozhodnutia súdov, ktoré sa týkali prípadov podobných tomu, o akom súd aktuálne rozhoduje.

Nevyhnutnou súčasťou právnej praxe je preto štúdium minulých judikátov, na základe ktorých strany sporu argumentujú v snahe presvedčiť súd, aby rozhodol v ich prospech. A ako v každom druhu ľudskej činnosti pracujúcej s informáciami, aj tu sa na hľadanie precedensov využívajú systémy umelej inteligencie.  

Právnici argumentovali neexistujúcimi prípadmi

Spor týkajúci sa „kolonožky“ (hoverboard) medzi obchodným reťazcom Wallmart a rodinou, ktorá pri výbuchu a následnom požiari „dosky na kolieskach“ utrpela popáleniny a emocionálny stres, mal byť iba bežným právnym prípadom v oblasti ochrany spotrebiteľa.

Právnici žalujúcej strany Rudwin Ayala, T. Michael Morgan z firmy Morgan & Morgan a Taly Goody z Goody Law Group však boli nútení stiahnuť podanie. Obsahovalo totiž deväť „vymyslených“ prípadov, ktoré sa do neho dostali prostredníctvom umelej inteligencie.

Horšie dopadol právnik Brandon Monk zastupujúci mandanta, ktorý žaloval firmu Goodyear Tire & Rubber za neoprávnenú výpoveď. Sudkyňa Marcia Cronová mu za neexistujúce prípady vytvorené umelou inteligenciou vyrubila pokutu vo výške 2 000 dolárov a zároveň prikázala absolvovať kurz o využívaní umelej inteligencie v právnej praxi.

Pokutou v celkovej výške 5 000 dolárov boli potrestaní Steven Schwartz, Peter LoDuca z právnej firmy Levidow, Levidow & Oberman. Sudca Peter Kevin Castel vyhodnotil použitie šiestich fiktívnych precedensov vytvorených umelou inteligenciu ako „akty vedomého vyhýbania sa a klamných a zavádzajúcich tvrdení súdu“.

Reagujú súdy aj právne firmy

Na fiasko s fiktívnymi, AI vytvorenými prípadmi zareagovala firma Morgan & Morgan e-mailovou správou zaslanou viac ako tisícke svojich právnikov.

Zdôrazňuje sa v nej požiadavka na dôsledné preverenie výstupu umelej inteligencie. V prípade problémov hrozia právnikovi viaceré riziká, od straty reputácie, cez disciplinárne konanie až po sankcie zo strany súdu, píše sa v e-maile. 

Federálny sudca z Texasu Brantley Starr vyžaduje od právnikov oficiálne prehlásenie, že nepoužili výsledky umelej inteligencie bez ľudskej kontroly. Sudca pritom na začiatku zvažoval úplný zákaz využívania umelej inteligencie počas súdnych pojednávaní.

Oznámenie, že na prípravu materiálov pre konanie bola využitá umelá inteligencia a jej výstup bol preverený na správnosť, požadujú aj súdy v štátoch Philadelphia, Illinois či v hlavnom meste USA.

Sudca Gabriel A. Fuentes z Chicaga sa odvoláva vo svojom rozhodnutí týkajúcom sa využívania AI na prípravu súdnych podkladov na dialóg z filmu 2001: Vesmírna Odysea, v ktorom sa počítač vzbúril proti ľudskej posádke.         

AI „halucinácie“ môžu ovplyvniť všetky činnosti spojené s informáciami

To, že chyby umelej inteligencie sa objavili práve v oblasti právnych sporov, je pochopiteľné. Každá strana konfliktu sa snaží nájsť akýkoľvek dôvod na to, aby oponent súd nevyhral. Dôkladne preto preveruje všetky jeho tvrdenia.

V iných oblastiach, kde sa AI používa na hľadanie či spracovávanie informácií, nie je takáto intenzívna miera kontroly bežná. Nedá sa preto vylúčiť, že výsledky „halucinujúcej“ AI tu pretrvajú oveľa dlhšie.

Odpoveď obsahujúca vymyslené údaje sa občas objavila aj počas pokusov Štandardu s čínskou umelou inteligenciou DeepSeek.  

DeepSeek sa dá spustiť na vlastnom počítači. Po stiahnutí modelu funguje aj bez internetu

Mohlo by Vás zaujímať DeepSeek sa dá spustiť na vlastnom počítači. Po stiahnutí modelu funguje aj bez internetu

Jedným z dôvodov takéhoto správania bol nedostatočný tréning v oblasti, ktorej sa otázka týkala. Na zadanie v angličtine o reáliách z USA podala AI správne vysvetlenie.

Na podobnú požiadavku v slovenčine zaoberajúcu sa slovenskými reáliami pritom vrátila AI nezmysel. Odpoveď pritom vyzerala presvedčivo a obsahovala veľa detailov, čo môže neznalého používateľa zmiasť.

Problémom je však aj opačná situácia. Ak sa AI trénuje na príliš veľa dátach (overfitting), stráca schopnosť zovšeobecňovania a kladie príliš veľký dôraz na drobné odlišnosti. Aj malá zmena v otázke potom môže vyvolať obrovské zmeny.

Halucinácie môže však vyvolať aj to, ak sú dáta na tréning zámerne vybrané so zdrojov s určitým ideologickým „zafarbením“. To môže v prípade využívania AI na právne účely výrazne narušiť princíp nezávislosti justície aj základné ľudské práva.

Preferovanou politickou ideológiou umelej inteligencie je progresivizmus, tvrdí štúdia

Mohlo by Vás zaujímať Preferovanou politickou ideológiou umelej inteligencie je progresivizmus, tvrdí štúdia