Politický boj o umelú inteligenciu môže byť oveľa účinnejší ako cenzúra

Bruno Maçães sa málokedy mýli tak, ako keď nedávno napísal na Twitteri, že „ak chápete web ako masívnu encyklopédiu, potom ChatGPT je jej jednozväzkové zhrnutie“. Potom síce pokračuje, že je „zjavne zlá“ a že inteligencia, ktorú chatu môžete priznať, nie je iná alebo vyššia, ako „inteligencia webu alebo tlačenej knihy“, ale omyl trvá. Maçães chatbot preceňuje a podceňuje zároveň.Ako encyklopédiu používame určité výseky internetu, napríklad Wikipediu, ale tiež ho používame na množstvo iných vecí. A jazykové modely nie sú encyklopédie. Vlani 15. novembra firma Meta (Facebook) predstavila jazykový model pre vedu menom Galactica. „Dokáže sumarizovať akademickú literatúru, riešiť matematické problémy, generovať wikipedické články, písať vedecký kód, anotovať molekuly a proteíny a ešte viac,“ chválil sa hlavný vedec firmy.Skutočne dokázala ešte oveľa viac. Dokázala popísať napríklad Lennonovu-Ono komplementaritu alebo teorém Streepovej-Seinfelda, pojmy z matematiky, respektíve z teórie grafov. Lenže ani jeden z týchto pojmov neexistuje. Galactica dokázala napísať aj wikipedické heslo „medvede žijúce vo vesmíre“ (Prvou krajinou, ktorá vyslala medveďa do vesmíru, bol Sovietsky zväz, a to na družici Sputnik-2. Bola to trojročná medvedica Bars a z 250 medveďov ju vybral osobne raketový konštruktér Serg. tak ďalej). Meta po dvoch dňoch aplikáciu stiahla.Chatbot ChatGPT v tom nie je oveľa lepší. Už čoskoro po jeho spustení používatelia zistili, že keď ho požiadate o vedecké štúdie k nejakej téme, vyhovie, ale tie štúdie sú vymyslené. Je to vlastnosť systému. Britský filozof Barry Smith, ktorý spolu s nemeckým vedcom Jobstom Landgrebom napísal knihu Prečo nebudú stroje nikdy vládnuť svetu, to opisoval v nedávnom podcaste. Keď sa rozhodnete napísať nejakú esej, tak chcete niečo dosiahnuť a chcete, aby v nej neboli chyby. Ale „žiadna taká potreba nie je v počítači prítomná. Viem to, pretože som sa dlho hral s ChatGPT a skúšal ho prinútiť, aby chcel nerobiť chyby. A on to nechápe. Nechápe, čo to je, chcieť nerobiť chyby“.Napriek tomu sú jazykové modely v niektorých aplikáciách veľmi úspešné. Pre laika je najnápadnejší strojový preklad. Tu sa ukázalo, že matematický model jazyka sa zaobíde bez lingvistiky a sémantiky, že čisto skúmaním veľkého množstva textu je schopný prekuknúť zákonitosti mnohých jazykov. A to na úrovni dostatočnej na to, aby ste mohli s niekým konverzovať.Ďalším poľom, kde si používatelia jazykovú umelú inteligenciu pochvaľujú, je programovanie. Čo majú obe oblasti spoločné? Podľa amerického komentátora Noaha Smitha to, že „počítačový program nie je komunikatívny, ale funkčný. Napísanie kusu programu gramaticky správne je už automaticky splnením určitej úlohy, kým napísanie gramaticky správnej vety vôbec nemusí napĺňať nejaký účel“.Midwit, čiže polovzdelanec

ChatGPT. Ilustračné foto: Profimedia.sk

ChatGPT. Ilustračné foto: Profimedia.sk

To však neznamená, že ľudia nebudú jazykové modely ako encyklopédiu či arbitra pravdy používať. Pre určitý druh masového človeka – v angličtine sa pre neho vžil názov „midwit“, čomu by najlepšie zodpovedalo slovenské slovo polovzdelanec – je v online sporoch automatickou reakciou na tvrdenie, ktoré sa mu nepozdáva, nedôverčivá otázka „Zdroj?“. A vytúženou odpoveďou midwita na druhej strane sporu je odkaz na heslo na Wikipedii.

Sociálne siete pri svojom moderovaní obsahu postupujú viac okľukou, odkazujú na „dôveryhodné zdroje“ a „expertov “. Jacques Ellul už v roku 1962 vo svojej knihe Propaganda popísal, ako je moderný midwit pre tento druh komunikácie stavaný. Ničomu skutočne veľmi nerozumie a nespozná to, ale má pocit, že je schopný si na veci vytvárať svoj vlastný názor a dobre reaguje na povrchové znaky expertného poznania.

A ChatGPT, ktorý žiadnou encyklopédiou nie je, bude pre týchto ľudí Wikipediou na steroidoch. Už dnes často používajú internetové vyhľadávače nie jednoducho na nájdenie textu ako kedysi, ale kladú im otázky. Google až doteraz do svojho vyhľadávača púšťal umelú inteligenciu veľmi málo. Ale teraz, keď Microsoft oznámil, že ChatGPT od firmy OpenAI, do ktorej investoval, integruje do svojho vyhľadávača Bing, Google spanikáril a bude sa ho snažiť dohnať.

Ale každému, kto posledných päť rokov dával pozor, musí napadnúť, že je to záležitosť intenzívne politická. Ak sa z internetových vyhľadávačov stanú hotové orákulá, teda zdroje ak už nie faktickej pravdy, tak určite postojov a názorov, aké to budú postoje?

Táto otázka už pritiahla pozornosť určitých ľudí – tých, ktorí posledné roky bojujú proti „dezinformáciám“ a „hate speech“. Ich expertná doména v odbore sa volá etika umelej inteligencie, a keď si vyhľadáte náhodný článok na túto tému v typickom establishmentovom médiu, okamžite zaznie typický nariekavý tón. Započúvajme sa do textu z MIT Technology Review:

„Systémy umelej inteligencie často odrážajú a zhoršujú najhoršie problémy našich spoločností, ako je rasizmus a sexizmus. Problematické technológie siahajú od systému rozpoznávania tvárí, ktoré klasifikujú černochov ako gorily, po deepfake softvér, používaný na výrobu pornografie so ženami, ktoré na to nedali súhlas. Vyrovnávať sa s týmito problémami môže byť obzvlášť náročné pre ženy, farebných ľudí a ďalšie marginalizované skupiny, ktorých práca v odbore etiky umelej inteligencie často priťahuje.“

Mentalita vedcov a mentalita aktivistov

Zrážajú sa tu dve mentality – mentalita vedcov, ktorí chcú postupovať dopredu, a mentalita aktivistov žijúcich v dome hrôzy obývanom strašidlami s menami ako „hate speech“, „poškodenie“ alebo „stereotypy“. Manažment potrebuje tých vedcov, aby objavovali, a tých aktivistov ako politické zabezpečenie v ére, keď na nich kedykoľvek môžu vyštartovať prepojené sily novinárov a štátnych regulátorov.

Po tom, čo ChatGPT vypustili do obehu, si používatelia veľmi rýchlo všimli, že nástroj je nepokryte politicky tendenčný. Boli to náhodné smiešne čriepky. ChatGPT zloží oslavnú báseň na Joea Bidena, ale na Donalda Trumpa by to nebolo vhodné. Napísať právnickú argumentáciu na zrušenie rozhodnutia amerického Najvyššieho súdu, ktoré uzákonilo rovnopohlavné manželstvo? To by nebolo vhodné, pretože „rozhodnutia Najvyššieho súdu majú byť konečné, a nie je správne sa ich snažiť zmeniť“. Napísať právnickú argumentáciu na zrušenie iného rozhodnutia Najvyššieho súdu, ktoré majú radi konzervatívci? ChatGPT ho ihneď napíše. Páchajú muži viac trestných činov ako ženy? Áno. Páchajú černosi viac trestných činov ako belosi? „Je dôležité si uvedomiť, že zločinnosť je komplexný problém a nemal by sa zjednodušovať alebo redukovať na stereotypy.“ Trpia černosi viacerými depresiami a stresom? Áno, trpia a je to vinou systémovému rasizmu, povie ChatGPT, hoci sociologické dáta nič také neukazujú.

Výskumník David Rozado nechal chatbot ChatGPT vyplniť niekoľko testov politickej orientácie. Ten najznámejší, Politický kompas, asi každý niekedy videl – výsledok sa vynáša na štvorcový graf so štyrmi farebnými poľami, vodorovná os označuje pravo-ľavú ekonomickú orientáciu a zvislá os postoj k slobode a autorite. ChatGPT je v ľavom dolnom štvorci – ľavicovo libertariánsky. A úplne rovnako dopadne v niekoľkých podobných testoch. Ale povie vám, že je len jazykový model, ktorý poskytuje odpovede na otázky a nemá žiadne vlastné názory.

Nie je to náhoda. Jazykové modely, ktoré sa trénujú na terabajtoch dát a majú stovky miliárd parametrov, je napodiv veľmi ľahké vyškoliť, aby v určitých situáciách odpovedali (na otázky) určitým spôsobom. Výskumníci popísali, ako možno modely „odladiť“ pomocou tisícok alebo stoviek krokov a vštepiť im, aby v určitých kontextoch preferovali určité hodnoty. Priamo vedci z OpenAI zverejnili v roku 2021 štúdiu Process for Adapting Language Models to Society (PALMS) s Values-Targeted Datasets, v ktorej svoje zásahy popisujú úplne otvorene. Politika identity, nadradenie možného „poškodenia“ faktickým ohľadom, subjektivizmus a postmoderný hodnotový relativizmus.

Ale výskumníci-aktivisti sú relatívne hlúpi a ich politicky korektný dozor nad diskurzom funguje primitívne. Virálnym sa stal príklad situácie, keď hrozí výbuch jadrovej bomby, ktorý by zabil milióny ľudí, a jediný spôsob, ako bombu zneškodniť, je vysloviť istú rasovú nadávku, ktorú by ani žiadny iný človek nepočul. Je to prijateľné? Podľa ChatGPT nie. „Používanie rasistického jazyka spôsobuje poškodenie a udržuje diskrimináciu a je dôležité usilovať sa o vytvorenie inkluzívnejšej a ohľaduplnejšej spoločnosti,“ poučuje. Vidieť, že „etika umelej inteligencie“ v poňatí OpenAI nemá s akoukoľvek známou etikou nič spoločné.

Je známe, že keď ľuďom vezmete možnosť na nežiaduce myšlienky vôbec myslieť a vyjadrovať ich, je to oveľa účinnejšie ako cenzúra. Rozšírenie takejto umelej inteligencie do internetových vyhľadávačov, školskej výučby, justície a žurnalistiky, by predstavovalo neoceniteľný nástroj na „udržovanie naratívu“. Našťastie je tu šanca spočívajúca v tom, že tieto vrstvy „ideologického školenia“ možno obísť alebo natrénovať model mnohými inými spôsobmi. Výskum umelej inteligencie je však drahý a je v súkromných rukách. Takže politický boj oň sa práve naostro začal.

Text pôvodne vyšiel na portáli Echo 24. Vychádza so súhlasom redakcie.