Prvá európska regulácia umelej inteligencie nič podstatné nerieši. Bude sa dať obísť

Európsky akt o umelej inteligencii, ako prvá norma tohto druhu na svete, zavádza jednotné pravidlá na využitie umelej inteligencie, no jej ustanovenia sú príliš vágne a právne nejasné.

Záber z Európskeho parlamentu. V popredí poslankyňa Joanna Scheuring-Wielgusová. Foto: Wiktor Dabkowski/ZUMA Press Wire/Shutterstock Editorial/Profimedia.sk

Záber z Európskeho parlamentu. V popredí poslankyňa Joanna Scheuring-Wielgusová. Foto: Wiktor Dabkowski/ZUMA Press Wire/Shutterstock Editorial/Profimedia.sk

Európska únia si stanovila cieľ byť centrom svetovej úrovne pre umelú inteligenciu a zabezpečiť, aby bola umelá inteligencia dôveryhodná a zameraná v prospech občanov.

Nariadenie Európskeho parlamentu a Rady 2024/1689 (Akt o umelej inteligencii) predstavuje konkrétnu normu, ktorá vychádza z politických opatrení začatých v roku 2018 a premieňa vízie európskych zákonodarcov do praxe.

Európsky parlament. Foto: TASR/AP

Akt o umelej inteligencii je prvým komplexným právnym rámcom pre umelú inteligenciu na globálnej úrovni. Nové pravidlá majú za cieľ podporovať dôveryhodnú umelú inteligenciu v Európe aj mimo nej a zabezpečiť, aby systémy umelej inteligencie rešpektovali základné práva, bezpečnosť a etické zásady.

Cieľom Aktu je vybudovať dôveru občanov Európskej únie v AI. S rozvojom umelej inteligencie prirodzene vznikajú riziká, ktoré si vyžadujú reguláciu na nadnárodnej úrovni. Pri systémoch s umelou inteligenciou je často náročné určiť, prečo program prijal konkrétne rozhodnutie alebo predpoveď a vykonal určité opatrenie.

Nepredvídateľné rozhodnutia umelej inteligencie môžu ohroziť verejné záujmy a základné práva chránené právom Únie, čím vznikajú riziká a možné ujmy, hmotné aj nehmotné, vrátane fyzickej, psychickej, spoločenskej alebo ekonomickej ujmy. Akt preto zavádza pravidlá pre rôzne typy aplikácií umelej inteligencie a berie do úvahy úroveň rizika, ktorú môžu tieto systémy predstavovať pre jednotlivcov a spoločnosť.

Chýba základná definícia AI

Napriek jasnému a racionálnemu zámeru naráža však Akt na bežný problém nových noriem. Nejasné vymedzenie pojmov a ustanovení nezaručuje požadovanú úroveň ochrany, ktorú zákonodarca zamýšľal. A ak nie sú definície a hranice regulácie jednoznačné, dajú sa ľahko obísť.

Problémom je hneď definícia pojmu „systém AI“. Vzhľadom na rozmanitosť a možnosti umelej inteligencie je obtiažne stanoviť takú definíciu, ktorá by pokryla všetky formy AI.

Samotný Akt tento pojem nemá riadne zadefinovaný. V úvodných ustanoveniach iba uvádza, že tento termín má byť jednoznačne definovaný a zosúladený s prácou medzinárodných organizácií, ktoré sa venujú AI, a to na základe kľúčových charakteristík s cieľom zabezpečiť právnu istotu.

Ak nie je riadne zadefinovaná podstata toho, čo vlastne Akt reguluje, veľmi ťažko možno hovoriť o účinnej ochrane. Bez definície AI sa totiž každý škodlivý produkt alebo systém môže skrývať za túto právnu medzeru s odôvodnením, že práve tento software nespadá do danej „definície“ AI.

Dotknuté firmy môžu jednoducho obchádzať regulácie tým, že ich technológia či jej vývoj nespadá pod právne vymedzenie "systému AI". 

Akt zavádza zakázané kategórie systémov

Medzi hlavné témy regulácie Aktu patrí aj zákaz systémov, ktoré využívajú manipulatívne alebo zneužívajúce praktiky, či praktiky spoločenskej kontroly. Akt považuje takéto praktiky za škodlivé a v rozpore s hodnotami Únie, ktoré zahŕňajú rešpektovanie ľudskej dôstojnosti, slobody, rovnosti, demokracie, právneho štátu a základných práv zakotvených v charte, vrátane práva na nediskrimináciu, ochranu údajov, súkromia a práv dieťaťa.

Rovnako zakázané by mali byť aj manipulatívne techniky AI zamerané na presviedčanie osôb, aby sa správali určitým spôsobom, ktorý narúša ich samostatnosť, oslabuje rozhodovacie schopnosti a obmedzuje slobodnú voľbu.

Mimoriadne nebezpečné sa javia systémy biometrickej kategorizácie založené na biometrických údajoch fyzických osôb, ako je tvár alebo odtlačky prstov, ktoré by mali byť zakázané. Cieľom týchto systémov je odvodiť politické názory osôb, členstvo v odboroch, náboženské alebo filozofické presvedčenie, rasu, sexuálny život alebo sexuálnu orientáciu.

Inými slovami, ide o systémy AI, ktoré dokážu napríklad prostredníctvom internetovej aktivity zostaviť komplexný profil osoby a na základe biometrických údajov tento profil priradiť ku konkrétnej fyzickej osobe v reálnom živote. AI jednoducho vie mimoriadne spoľahlivo vyskladať celkový profil človeka a priradiť ho k jeho skutočnej identite bez toho, aby o tom dotyčný vôbec vedel.

Akt zavádza prísnu reguláciu systémov AI na sociálne bodovanie fyzických osôb využívané verejnými orgánmi alebo súkromnými subjektmi, pretože môžu viesť k diskriminačným výsledkom a k vylúčeniu určitých skupín. Rovnaké obmedzenia platia pre systémy AI na diaľkovú biometrickú identifikáciu v reálnom čase, ktoré možno použiť len v presne vymedzených situáciách.

Vágne pojmy znamenajú neúčinnosť normy

Všetky uvedené rizikové metódy manipulácie alebo identifikácie sú v rozpore s právom Európskej únie. Bez jednoznačnej definície pojmu AI však nemožno účinne zakázať systémy, ktoré zasahujú do práv iných osôb.

Európsky Akt o AI obsahuje samostatnú kapitolu, ktorá špecifikuje zakázané praktiky využívajúce AI. Tieto definície sú však opäť formulované vágne a široko, takže nie je jasné, aké typy programov sem presne spadajú.

Daná kapitola stanovuje zákaz uvádzať na trh, používať alebo prevádzkovať systém AI, ktorý zneužíva zraniteľnosti osôb alebo osobitných skupín, a to na základe ich veku, zdravotného postihnutia alebo sociálnej či ekonomickej situácie.

Takto formulovaný zákaz však umožňuje nejasný výklad, keďže pojem „zraniteľnosť“ možno chápať veľmi široko. Uvedený zákaz sa vzťahuje aj na systémy AI, ktoré majú za cieľ výrazne ovplyvňovať správanie osoby spôsobom, ktorý tejto alebo inej osobe môže spôsobiť značnú ujmu.

Výrazy ako „majú za cieľ“ sa dajú ľahko obísť použitím iného cieľa v popise aplikácie. Podobne aj frázy ako „výrazne ovplyvňovať správanie osoby“ alebo „pravdepodobne spôsobiť značnú ujmu“ umožňujú široký výklad, a bez jasného právneho rámca sú právne nevymáhateľné.

Akt obsahuje množstvo takýchto všeobecných definícií zakázaných systémov. Bez konkrétnych príkladov a rozhodnutí je však veľmi ťažko objektívne posúdiť, či sa vôbec nájde nejaký software, ktorý by bez relevantných námietok bolo možné zaradiť medzi zakázané programy.

Sankcie za porušenia Aktu sú vysoké

Európska norma stanovuje vysoké sankcie za porušovanie spoločných pravidiel. Za používanie zakázaných praktík AI sa ukladajú správne pokuty až do výšky 35 miliónov EUR alebo, ak ide o podnik, až do 7 percent celkového celosvetového ročného obratu za predchádzajúci finančný rok, podľa toho, ktorá suma je vyššia.

Napriek vysokým pokutám nemusí byť vždy jasné, kto zodpovedá za nesprávne konanie alebo neetické použitie AI, najmä pri komplexných systémoch, ktoré vyvíja viacero strán. V praxi sa firmy môžu pokúšať presúvať zodpovednosť na subdodávateľov alebo tretie strany, čo vedie k zložitému a neprehľadnému dodávateľskému reťazcu a tým obmedzuje efektivitu regulácie.

Podobné problémy možno badať pri európskych daňových normách, ktoré svojou zložitosťou a nejasnosťou poskytujú široký priestor na rôzne špekulácie a "optimalizácie" daní, namiesto jasného systému zdaňovania subjektov.

Akt o AI vyžaduje, aby systémy umelej inteligencie zabezpečovali transparentnosť a poskytovali jasné vysvetlenia pre svoje rozhodnutia. U niektorých komplexných modelov (napríklad veľkých jazykových modelov) však predstavuje vysvetliteľnosť technologicky náročnú výzvu. Firmy by mohli argumentovať, že nie sú technicky schopné tieto vysvetlenia poskytnúť, čo by ich vystavilo riziku neoprávnených sankcií.

Akt sa teritoriálne zameriava predovšetkým na organizácie pôsobiace v EÚ, čo spôsobí, že zahraničné spoločnosti ponúkajúce AI riešenia mimo EÚ budú ťažšie dostupné na kontrolu. Niektoré podniky pravdepodobne využijú externých dodávateľov alebo lokalizácie mimo EÚ, aby sa vyhli povinnostiam vyplývajúcim z Aktu, alebo sa úplne zbavili zodpovednosti.

Právny rámec pre reguláciu umelej inteligencie je nevyhnutný. Zákon bez presne vymedzenej právnej definície AI ukazuje podstatu problému umelej inteligencie, a to je jej neuveriteľne rýchly vývoj, vďaka ktorému ju nemožno jasne definovať pre právne účely. 

Právne normy bez jasných definícií a mantinelov sú potom len prázdne formulácie, ktoré každý podnik v tomto sektore ľahko obíde.

A to aj s využitím umelej inteligencie.