Základ, na ktorom sú „konverzačné“ umelé inteligencie, z ktorých najznámejší je dnes ChatGPT, postavené, je čisto pravdepodobnostný. Každá taká umelá inteligencia začína svoju existenciu tým, že vstrebe čo najväčšie množstvo existujúceho textu napísaného ľuďmi a analyzuje jeho štruktúru. Zameriava sa pritom hlavne na to, aké slová najčastejšie nasledujú po sebe a v akých skupinách sa vyskytujú. Tento textový korpus „prežúva“ softvérový mechanizmus zvaný neurónová sieť, ktorý má napodobňovať fungovanie biologického mozgu (zatiaľ však veľmi, veľmi nedokonale) a ktorý sa na spracovanie ľudského jazyka hodí.
Výsledkom je mašinéria, ktorá dokáže na predložený vstup reagovať spôsobom, ktorý prirodzený jazyk značne pripomína. Zhruba povedané, na „Vonku leje ako z –“ bude schopná odpovedať „krhly“, rovnako ako normálny Slovák. Čím silnejší model, tým presvedčivejší a dlhší text dokáže týmto spôsobom generovať.
Staršie generácie GPT dokázali napísať nanajvýš niekoľko riadkov, než sa začali podivne opakovať alebo doslova papagájovať to, čo si vo fáze svojho učenia „načítali“ inde. Súčasná generácia „tárajov“ je už schopná generovať celé stránky prirodzene znejúceho textu na takmer ľubovoľnú tému, hocikedy aj v požadovanom autorskom štýle.
Obsah takého textu je však často trochu pofidérny. Keďže textový generátor je čisto pravdepodobnostný a nemá v sebe žiadne mechanizmy, ktoré by zabezpečovali logické súvislosti medzi faktami, „nerozumie“ tomu, čo vám oznamuje. To je obzvlášť krikľavé v prípade odbornejších textov, keď sú umelé inteligencie schopné vyprodukovať úplne neuveriteľné nezmysly, totálne sa míňajúce stavu poznania v danom odbore.
Amatér však takéto chyby nemusí na prvý pohľad rozpoznať. Z reálneho života sme zvyknutí odhadovať vierohodnosť textu, okrem iného, podľa jeho gramatickej a slohovej štruktúry. Ak nevie autor dobre po slovensky (alebo po anglicky), automaticky považujeme jeho tvrdenia za trochu podozrivé, keď sa dokáže vyjadrovať erudovane, zdá sa nám dôveryhodnejšie. Tento intuitívny mechanizmus hodnotenia však stroje ako ChatGPT obchádzajú. Text, ktorý vytvárajú, je obvykle elegantný, bez gramatických chýb a číta sa dobre. Uspáva teda našu ostražitosť svojou povrchnou dokonalosťou.
Z čoho sa učíš, tým si tiež
Jedným z problémov, na ktoré narážali už najjednoduchšie jazykové modely, bola skutočnosť, že korpus textov, z ktorého sa „učí“, nemusí svojím myšlienkovým charakterom zodpovedať súčasným predstavám o spoločnosti. Ak predložíte takému robotovi spisy z Hitlerovej pamätnej knižnice, bez všetkého vám potom bude servírovať príhovory na tému „degenerácia árijskej kultúry pod židonegerskými vplyvmi“, ktoré z takých materiálov pochytil. Ak potom interaguje takýto robot so živými ľuďmi, musia jeho tvorcovia a prevádzkovatelia počítať aj s tým, že sa ho používatelia budú snažiť „popostrčiť“ nejakým nekorektným smerom, napríklad preto, aby mali niečo šťavnaté pre svoj Twitter.
Politické zameranie robotických „tárajov“ je zaujímavá téma sama osebe. Ich súčasná generácia sa nápadne drží predsudkov a tabu platných v progresívnej Kalifornii a naznačuje, že jednou z možných budúcich rolí takých systémov je „pritakávač“, servilný mechanizmus, ktorý bude hovoriť poslucháčom presne to, čo od neho chcú počuť. V extra rozvinutej dystopii by potom podobný robot slúžil na určovanie toho, čo je pravda a čo dezinformácia. Ľudia majú tendenciu si asociovať počítače s presnosťou a spoľahlivosťou, takže takýto „digitálny diktátor“ by mohol pôsobiť dôveryhodnejšie ako živí cenzori.
Aj keď pominieme politické rozmery strojového učenia a písania, zostávajú rozmery praktické. Značná časť textov, na ktorých sa súčasní roboti učili hovoriť, podlieha ochrane autorského práva. Držitelia copyrightu sa už tiež snažia žalovať prevádzkovateľov takých systémov o tantiémy. Všetky tieto pokusy zatiaľ zlyhali, pretože autorské právo v súčasnom znení je napospol založené na tom, že „autorom“ môže byť len fyzická osoba – človek. Autorská aktivita autonómnych počítačových mechanizmov je niečo, čo až doteraz zákony ani zmluvy neriešili, a o tom, ako bude vyzerať jej budúci právny rámec, doteraz nepanuje jednotná predstava.
K zložitosti budúcej právnej úpravy prispieva aj to, že strojové učenie síce nemá charakter vysloveného plagiátorstva, ale nedá sa pri ňom úplne zabrániť tomu, aby k občasnému doslovnému opakovaniu zdrojového textu došlo. Toto je nepríjemný problém aj z úplne iného dôvodu: ochrany utajovaných informácií vrátane obchodných tajomstiev.
Roboti typu ChatGPT sa totiž ihneď stali cennými pomocníkmi rôznych úradníkov a kancelárskych zamestnancov, ktorí sami nemajú „tvorivé črevo“ a komponujú za ich pomoci všelijaké správy a analýzy pre svojich nadriadených. Táto neobľúbená činnosť sa dá prostredníctvom robotov zvládnuť o dosť ľahšie, ale zároveň to znamená vkladať do nich rôzne neverejné dáta, ktoré potom tá istá umelá inteligencia môže „prekecnúť“ v úplne iných konverzáciách s inými ľuďmi.
Koľko ľudí oklameš, toľkokrát si človekom
Z hľadiska presnosti a spoľahlivosti sú na tom diskusní roboti zatiaľ zle a nezdá sa, že by sa tento problém v dohľadnej dobe zlepšil; pravdepodobnostný model jazyka bude touto slabinou trpieť aj naďalej. To však neznamená, že by nemohli plniť inú rolu, a to je predstieranie, že sú vlastne ľudia. My ľudia na tom, koniec-koncov, s presnosťou a spoľahlivosťou tiež nie sme práve najlepšie.
Jeden zo zakladateľov počítačovej vedy, britský vedec Alan Turing, prišiel už v roku 1950 s myšlienkou, ako ohodnotiť inteligenciu počítačového systému: ak dokáže počítač v rámci konverzácie so živým človekom pôsobiť dostatočne presvedčivo a „ľudsky“ na to, aby nebol na rozoznanie od skutočného človeka, môžeme ho považovať za inteligentný.
V Turingovej dobe boli, samozrejme, také stroje čistou fantazmagóriou, najsilnejšie počítače ťažko zvládali sčítanie a odčítanie. Ale už roku 1966 vznikol prvý jednoduchý program ELIZA, ktorý pri konverzácii trochu ľudsky pôsobil; nie natoľko, aby oklamal skutočného skeptika, ale dosť na to, aby ste pri rozhovore s ním mohli chvíľami zabúdať na to, že sa bavíte so strojom.
Súčasné umelé inteligencie sú v napodobňovaní človeka podstatne ďalej ako primitívna ELIZA a extrémnu výhodu majú najmä pri krátkych textoch. A krátke texty, to je typický atribút sociálnych sietí, dôležitých fór dnešného internetu. Práve tu môžu roboti spôsobiť prvú revolúciu.
Manipulácia verejnej mienky pomocou organizovaných kampaní na sociálnych sieťach bola rutinným javom už pred nástupom umelých inteligencií, ale podobné stroje ju zásadne uľahčia. Ak musíte platiť živých „trollov“, ste limitovaní ich počtom, ako aj ich schopnosťami; máloktorý šikovný človek sa nechá zapriahnuť do takej práce. Anglicky, čínsky alebo rusky aspoň hovorí mnoho ľudí, ale u vyslovene malých jazykových komunít je živých záujemcov o takúto aktivitu zreteľný nedostatok. A to znamená, že „prefláknutí“ jedinci budú čoskoro v príslušnej komunite známi ako falošný šesták.
Robotické bábky môžu však písať v množstve jazykov, žiadne zábrany nemajú, plat tiež nepožadujú a je možné si ich vytvoriť ľubovoľné množstvo. Z hľadiska fungovania sociálnych sietí ide teda o zásadnú hrozbu: ako pre ich prevádzkovateľov, v záujme ktorých rozhodne nie je nechať zavaliť si sieť masami robotov (siete napospol zarábajú na predaji reklamy a roboti sú ako konzumenti reklamy bezcenní), ako aj pre ich živých návštevníkov, ktorí dávajú prednosť interakcii s inými živými ľuďmi a máloktorý z nich si praje byť niekam manipulovaný tupým robotom.
Detekcia a likvidácia robotov je mimoriadne náročná úloha, ktorá vedie k „pretekom v zbrojení“ medzi obrancami a útočníkmi. Samoučiaci charakter dnešných umelých inteligencií navyše nahráva tomu, aby sa vzájomne „prechytračovali“ aj bez pomoci ľudí. Navyše detekčné mechanizmy nemôžu byť príliš prísne, pretože každý falošný poplach – teda mylné označenie živého človeka za robota – vyvoláva silné negatívne reakcie postihnutého jedinca a podozrenie z cenzúrnych úmyslov.
Jeden klasický komiks zo začiatku internetu zachytáva dvoch psov pri klávesnici, z ktorých jeden druhému hovorí: „Na internete nikto nevie, že si pes.“ Tridsať rokov potom sa situácia mení trochu nečakaným smerom. Na budúcom internete nemusí nikto vedieť, že ste človek.
Text pôvodne publikovali na webe Echo24 a vychádza so súhlasom redakcie.