Dvadsať miliónov alebo 300-tisíc? Čo hovoria dáta o zneužívaní detí na internete
Brusel už istý čas intenzívne rieši otázku zneužívania detí v online prostredí. Povinná plošná kontrola správ Európanov je zrejme definitívne pasé, keďže sa proti nej postavili viaceré členské krajiny. Na stole a blízko finálneho schválenia je teraz „dobrovoľné“ lustrovanie platformami, ktoré k tomu Únia plánuje motivovať pokutami.
Technologické spoločnosti budú v praxi povinné posúdiť mieru rizika zneužitia detí na svojich platformách a zaviesť zmierňujúce opatrenia. Ak sa tie vyhodnotia ako nedostatočné, budú čeliť vysokým pokutám, ktoré môžu v prípade veľkých firiem siahať do miliardových výšok (šesť percent obratu).
Nasadenie plošného skenovania pomocou umelej inteligencie je tak najjednoduchším spôsobom, ako preukázať, že robia všetko, čo je v ich silách, na zníženie rizika.
Na váhy sa opäť dostáva dilema, či ochrana detí pred zneužívaním stojí za stratu súkromia občanov Únie a či sa na umelú inteligenciu možno v tomto smere spoľahnúť.
Začnime však z opačnej strany.
Čím sa argumentuje v prospech lustrovania správ
Európske orgány sa pri argumentácii v prospech kontroverznej legislatívy opierajú o hrozivo pôsobiace štatistiky. Vlani dostalo Národné centrum pre nezvestné a zneužívané deti (NCMEC) od technologických spoločností po celom svete zhruba dvadsať miliónov hlásení, ktoré sa týkali podozrenia zo sexuálneho zneužívania maloletých na internete.
Hoci oproti roku 2023 ide o výrazný pokles z viac ako 36 miliónov, NCMEC sa od vlaňajška snaží klásť väčší dôraz na identifikáciu a sledovanie unikátnych detí a páchateľov. Viaceré platformy preto pozmenili spôsob nahlasovania incidentov – v jednoduchosti, ak je to tá istá fotka, už ju nenahlasujú pri každom zdieľaní, ale v rámci jedného prípadu. O deduplikáciu hlásení tých istých materiálov z rôznych platforiem sa snaží aj samotné NCMEC.
Ak by sa pokračovalo v metodike z roku 2023, podozrivých hlásení by bolo vlani okolo 29 miliónov.
Spôsobov zneužívania detí v online prostredí je pritom viacero. Najväčšiu kategóriu v rámci spomenutej štatistiky tvoria hlásenia týkajúce sa tvorby a šírenia vizuálnych materiálov zobrazujúcich sexuálne zneužívanie detí, a to od fotiek a videí až po živé streamovanie.
Novým trendom sú v tomto smere videá s detskou pornografiou, ktoré vytvorila umelá inteligencia. Počet hlásení sa zvýšil z necelých piatich tisícok v roku 2023 na vlaňajších 67-tisíc. Hoci ide o fikciu, voľné šírenie takýchto materiálov môže potenciálnych páchateľov povzbudzovať k činom v reálnom svete.
Dáta NCMEC však okrem fotiek a videí zahŕňajú aj hlásenia prípadov, keď niekto disponuje intímnymi materiálmi obete (alebo to predstiera) a obeti hrozí ich zverejnením, čo sa v novodobom slovníku definuje pod anglickým pojmom „sextortion“.
Okrem toho sa nahlasuje aj četovanie dospelých s dieťaťom, pri ktorom vzniká podozrenie zo snahy o zblíženie, zaslanie intímnych fotiek či videí alebo aj vylákanie neplnoletého na osobné stretnutie (anglicky grooming).
Dodajme, že väčšina štatistík definuje deti ako osoby do veku 18 rokov.
Miliónové údaje sú hodné polemiky
Pri spomenutej štatistike, ktorá býva často citovaná, je však dôležité vziať do úvahy, čo presne popisuje. Ide o milióny hlásení podozrivých komunikácií či audiovizuálnych materiálov. Dôležité slová v predchádzajúcej vete sú „podozrivých“ a „hlásení“.
Oproti minulosti sa totiž zneužívanie detí vníma veľmi citlivo. To je vcelku oprávnené a správne, no v tejto súvislosti treba rátať s tým, že časť hlásených podozrení bude jednoducho „štatisticky falošných“.
Môžu zachytiť komunikáciu a zdieľanie fotiek (aj nahých) detí medzi rodinnými príslušníkmi, napríklad z dovolenky pri mori. Alebo debatu ľudí s nevhodným humorom, čo síce nemusí byť morálne správne, no má to ďaleko od „online pedofílie“.
Technologické spoločnosti ako Meta či Google v posledných rokoch masívne investujú do umelej inteligencie, respektíve pokročilých algoritmov, ktoré podozrenia detegujú a hlásia automaticky, no nie sú presné.
Práve toho sa týka jeden z hlavných argumentov proti chystanej európskej legislatíve – aj keby bola umelá inteligencia stopercentne úspešná pri detegovaní problémových vizuálnych materiálov a komunikácie ozajstných predátorov s obeťami, nič to nehovorí o falošne pozitívnych nálezoch, keď systém chybne označí umeleckú fotografiu, lekársku konverzáciu, rodičovské vtipkovanie či obrázok zlej kvality za podozrivý.
To sa potom potenciálne spája s lustrovaním nevinných ľudí políciou a prípadnými opletačkami či poškodením dobrého mena.
Vráťme sa však späť k údajom NCMEC. Aj po dokonalom očistení o všetky falošné hlásenia a duplicitný výskyt toho istého materiálu nie je výsledný počet údajom o množstve páchateľov a obetí, keďže môže existovať viacero fotografií či videí z jedného trestného činu.
Práve na to sa zameriava Nadácia pre dohľad nad internetom (IWF), ktorá sa snaží rôzne materiály (nie hlásenia) spájať do individuálnych prípadov zneužívania detí v online prostredí.
Jej štatistiky sú aj preto omnoho nižšie [rolu hrá aj to, že hoci problematické materiály sama aktívne vyhľadáva a neprijíma iba hlásenia, pochádzajú „len“ z približne 50 krajín, pozn. red.]. Na druhej strane majú väčšiu výpovednú hodnotu.
Organizácia vlani podľa vlastných slov posúdila viac než 424-tisíc hlásení a podnikla kroky vo viac ako 290-tisíc prípadoch, v ktorých overila, že obsahujú trestné zábery.
Tieto vizuálne materiály triedi podľa rôznych kategórií a charakteristík. Uvádza napríklad hrozivo pôsobiacu štatistiku, podľa ktorej bolo zďaleka najviac detských obetí na fotografiách či videách vo veku od 7 do 13 rokov.
Prípadov, keď by mohlo v rámci nahlásených materiálov ísť o dvoch četujúcich adolescentov posielajúcich si pikantné fotky, z ktorých je jeden dospelý a druhý neplnoletý, je teda minimum.
Najzávažnejších materiálov zobrazujúcich penetračnú sexuálnu aktivitu potvrdila inštitúcia zhruba 60-tisíc. Na podobnom množstve súborov sa vyskytovali iné sexuálne praktiky ako masturbácia či petting (erotické maznanie). Najviac prípadov (166-tisíc) obsahovalo iné nevhodné zábery neplnoletých.
Nehľadiac na počty, ide o problém. Riešením nie je oko Veľkého brata
Z uvedeného porovnania vyplýva, že samotných prípadov zneužívania detí na internete nie je až toľko, ako to môže vyzerať. Pri prezentácii štatistík médiami či politikmi tak treba mať vždy jasno v tom, čo nám dáta presne hovoria, pretože sa často používajú manipulatívne na jednoduchšie dosahovanie politických či ideologických cieľov.
Každému však musí byť zrejmé, že to nie je dôvod zanedbávať ochranu detí na internete alebo sa o ňu prestať snažiť. Bez ohľadu na počet prípadov ide o závažnú otázku, ktorú treba riešiť na úrovni politiky, ako aj na pôde rodín a vzdelávacích inštitúcií.
Masové lustrovanie všetkých obyvateľov, ktoré sa spája s rizikom posúvania či predaja citlivých informácií tretím stranám, však nie je dobrým riešením.
Ak sa plošná kontrola komunikácie stane normou a internetové platformy budú mať zabudované mechanizmy na lustrovanie svojich používateľov, bude sa čakať už len na to, kedy vznikne politická alebo ideologická objednávka na ich použitie iným spôsobom. Napríklad na získavanie informácií či blokovanie a odstavenie tých, ktorí nevyhovujú systému. Ide o cestu k centralizácii moci, čo je, ako vieme z histórie, nebezpečné.
Riziká všetkých návrhov, ktoré má Brusel momentálne na stole, sú teda stále priveľké. Ak chceme naše deti chrániť pred nebezpečenstvami internetu, tak zabezpečme, aby sa k problémovým platformám dostali až ako dostatočne vyspelé. Podobne ako to už robí Austrália.