Deepfaky sa v roku 2025 posunuli na vyššiu úroveň. Čo nás čaká ďalej?

Syntetické videá a hlasy generované umelou inteligenciou dnes dokážu presvedčivo napodobniť konkrétnych ľudí. V roku 2025 sa deepfaky stali nielen kvalitnejšie, ale aj masovo dostupné.

Ilustračná fotografia vytvorená umelou inteligenciou. Foto: Freepik

Ilustračná fotografia vytvorená umelou inteligenciou. Foto: Freepik

Množstvo takzvaných deepfakov, teda digitálne napodobeniny tvárí, hlasov a celých vystúpení reálnych ľudí, prudko rastie a hranica medzi skutočným a umelým obsahom sa nebezpečne rozmazáva. V roku 2025 zásadným zlomom.

To, čo ešte pred pár rokmi pôsobilo ako technologická kuriozita alebo ľahko odhaliteľný podvrh, dnes v mnohých prípadoch vyzerá a znie ako autentická realita. Zároveň sa tieto nástroje čoraz častejšie používajú na manipuláciu, podvody a šírenie dezinformácií.

V bežných situáciách – napríklad pri videohovoroch s horšou kvalitou obrazu či pri krátkych videách na sociálnych sieťach – dokážu deepfaky oklamať aj pozorných divákov. Pre väčšinu ľudí sú už prakticky nerozoznateľné od skutočných nahrávok. V niektorých prípadoch zlyhávajú dokonca aj inštitúcie, ktoré sa spoliehajú na základné overovacie postupy.

Nejde pritom len o kvalitu, ale aj o rozsah. Podľa odhadov kyberbezpečnostnej spoločnosti DeepStrike sa počet deepfakov dostupných online zvýšil z približne pol milióna v roku 2023 na takmer osem miliónov v roku 2025.

Tempo rastu sa blíži k 900 percentám ročne. Ide o dramatickú zmenu, ktorá má priamy vplyv na dôveryhodnosť digitálneho priestoru.

Prečo sa deepfaky tak zlepšili

Za prudkým posunom stojí niekoľko technologických faktorov. Prvým je skok v kvalite generovaného videa. Nové modely dokážu udržať časovú konzistenciu – tváre sa nedeformujú, identita postáv zostáva stabilná a pohyb pôsobí prirodzene. Zmizli typické chyby, ako blikanie obrazu či neprirodzené línie okolo očí a úst, ktoré boli kedysi spoľahlivým varovným signálom.

Druhým faktorom je klonovanie hlasu. Umelá inteligencia dnes potrebuje len niekoľko sekúnd nahrávky, aby vytvorila presvedčivý hlasový klon so správnou intonáciou, rytmom, emóciami aj pauzami. Táto technológia už dnes poháňa rozsiahle podvodné schémy.

Niektoré firmy hlásia stovky až tisíce falošných hovorov denne, pri ktorých je hlas takmer nemožné odlíšiť od originálu.

Tretím dôvodom je dostupnosť nástrojov. Generovanie deepfakov už nie je doménou špecialistov. Spotrebiteľské platformy a nové generácie modelov umožňujú vytvoriť realistické video či audio v priebehu minút – bez technických znalostí.

Stačí textový opis, zvyšok zabezpečí umelá inteligencia. Tvorba presvedčivého falošného obsahu sa tým stala masovou záležitosťou.

Keď sa falošné stáva živým

Kombinácia rastúceho množstva a vysokej kvality deepfakov vytvára vážne riziká. Obsah sa šíri rýchlejšie, než ho možno overiť, a škody vznikajú ešte predtým, ako sa ukáže, že ide o podvrh. Dôsledky siahajú od politických manipulácií cez cielené obťažovanie až po finančné podvody.

Vývoj zároveň smeruje k ďalšiemu prelomu: k deepfakom v reálnom čase. Namiesto vopred vytvorených videí nastupujú digitálni „herci“, ktorí dokážu reagovať na otázky, meniť správanie a prispôsobovať sa situácii.

Modely identity už nezachytávajú len vzhľad, ale aj spôsob reči, gestá a typické správanie v rôznych kontextoch. Rozdiel medzi „vyzerá ako niekto“ a „správa sa ako niekto“ sa rýchlo stiera.

V takomto prostredí prestáva stačiť spoliehať sa na ľudský úsudok. Obrana sa bude musieť presunúť na systémovú úroveň – k overiteľnému pôvodu obsahu, kryptografickému podpisovaniu médií a pokročilým forenzným nástrojom umelej inteligencie.

Jednoducho povedané: pozerať sa pozornejšie už nebude stačiť.

Text vychádza z analýzy publikovanej na platforme The Conversation, následne prevzatej agentúrou Reuters. Bol redakčne upravený a skrátený.

(reuters)