Čím desí umelá inteligencia. Zastavte jej vývoj, žiadajú samotní vynálezcovia

Pohyb spustilo vypustenie chatovacích programov, ktoré túto doposiaľ abstraktnú či do kulís sci-fi zasadzovanú technológiu sprístupnilo každému laikovi. Zrazu si možno názorne predstaviť praktické pôsobenie tohto výdobytku.

Začali prichádzať správy z ekonomického sveta. Podľa jednej štúdie až 80 percent Američanov pracuje v profesiách, pri ktorých aspoň jednu časť ich činnosti zvládne rýchlejšie umelá inteligencia AI. Napríklad u účtovníkov, PR špecialistov, tlmočníkov, matematikov a ďalších celkovo dvadsať percent pracujúcich to je až polovica ich práce. Najmenej zasiahnutí budú kuchári, mechanici motocyklov a obsluha zariadení na ťažbu ropy a plynu.

Zasiahnuté budú pochopiteľne médiá. Ale nielen tak, že AI bude písať články (to už sa deje a s odpudivými výsledkami). Vydavatelia doteraz viedli nerovný boj s vyhľadávačmi a sociálnymi sieťami. Jednu potýčku sme u nás pocítili, keď Google v reakcii na novelu autorského zákona prestal uvádzať krátke úryvky z mediálnych článkov vo výsledkoch hľadania. Pohroma, ktorá teraz prichádza, je však kvalitatívne iná. AI asistent, ktorý je teraz súčasťou internetového prehliadača Bing od Microsoftu, vám to, čo potrebujete nájsť, sám povie – s použitím článkov, ktoré zoskupil. O výsledky vyhľadávania, ktoré by vás odkázali na nejaké publikácie, v mnohých prípadoch potom už nebudete stáť.

Už sa to začalo

Organizácie nemeckých vydavateľov už pred týmto nebezpečenstvom varovali a vyzvali Google a Microsoft na rokovania o zdieľaní ziskov. A už začali súdne procesy. Začiatkom februára zažalovala fotobanka Getty Images firmu Stability AI, ktorá prevádzkuje populárny nástroj na vytváranie obrazov Stable Diffusion. Obvinila ju, že si stiahla dvanásť miliónov obrazov z jeho databanky vrátane popisov a metadát a využíva ich ako surovinu, ktorú dáva k dispozícii svojim užívateľom.

Chatovacie aplikácie síce predvádzajú niektoré pozoruhodné výkony, ale je to asi ako videá psov jazdiacich na skateboarde a podobný obsah zaplňujúci sociálne siete. Hľa, pes – a ide na skateboarde, to tu ešte nebolo, povieme si. Ale niežeby to bol nejaký lepší skateboarding. Objavilo sa však niekoľko svedectiev, ktoré môžu budiť úzkosť a bázeň. Rafinovanými otázkami (hovorí sa tomu prompty) rôzni hackeri prinútili chatovacích botov správať sa zvláštne. Prisvojili si meno, začali prejavovať osobnosť. Začali prejavovať priania a vyhrážať sa.

A potom sú tu ojedinelé udalosti ako stvorené na klikacie titulky. V Belgicku spáchal samovraždu muž, ktorého k tomu povzbudil chatovací bot. Potom, čo sa s ním rozprával o zmene klímy. Tvrdí jeho rodina.

To všetko sú však ešte stále útržky našich myšlienok a vyjadrení, spôsoby reakcií, ktoré jazykový model vypozoroval. Nemá vlastnú subjektivitu a vôľu, uisťujú tvorcovia.

Samozrejme, má niečo iné. Jazykové modely si samy objavili veľa kategórií myslenia, o ktorých by sme sa intuitívne domnievali, že im ich treba vpraviť. Okrem iného tak spochybnili teórie modernej lingvistiky o vrodenom, unikátnom jazykovom zmysle. Zároveň to nie je nič doteraz úplne nemysliteľné. Veda na to má slovíčko „emergencia“. Emergentná vlastnosť je nejaká spontánne vzniknutá vlastnosť zložitého systému, ktorú nemožno ľahko odvodiť z vlastností jeho zložiek. Modely si ich osvojili veľa.

„Modely trénované na spracovávanie obrázkov sa napríklad spontánne naučili počítať, spracovávať odlišne okrajové a centrálne časti obrázkov a skúšať optické ilúzie vlastné ľuďom. Modely trénované na predvídanie ďalšieho slova vo vete prekvapili svojich tvorcov nielen sklonom k rasizmu a sexizmu, ale aj svojimi emergentnými schopnosťami uvažovania a aritmetiky a schopnosťou prekladať medzi rôznymi jazykmi. Zdôraznime, že tieto schopnosti tvorcovia nekonštruovali ani ich nepredpokladali. Vynorili sa spontánne pri tom, keď boli modely trénované na dosahovanie svojich cieľov.“

Citovaný odsek pochádza zo štúdie Michala Kosinského zo Stanfordu, v ktorej ukazuje, že jazykové modely sú na ceste k spontánnemu vytvoreniu toho, čomu sa v psychológii hovorí „teória mysle“. To vlastne nie je teória, ale termín, ktorý psychológovia používajú na ľudskú schopnosť odhadovať mentálne stavy druhých bez viditeľných vonkajších znakov. Vlastne vôbec pristúpiť na to, že si druhí ľudia niečo myslia. Tá schopnosť sa u detí rozvíja odmalička a možno ju čiastočne majú niektorí ľudoopy. Ale napríklad nie psy – tí rozoznávajú naše emocionálne stavy, ale len z vonkajších prejavov.

Verte, alebo nie, pre umelú inteligenciu to bol problém. Ak si napríklad prečítala, že „Mária sa pozerá na škatuľku s nápisom Čaj“, neusúdila z toho, že Mária teraz vie, že v krabičke je asi čaj.

Kosinski podrobil rôzne jazykové modely testom, ktoré psychológovia používajú na skúmanie teórie mysle. Dospel k tomu, že zatiaľ čo jazykový model z roku 2020 vyriešil 40 percent úloh zameraných na jeden druh teórie mysle, čo je úroveň 3,5-ročného dieťaťa, GPT-3.5 z novembra 2022 vyriešil správne už deväťdesiat percent úloh ako sedemročné dieťa.

A teraz si všimnime časový sled. Prvá verzia Kosinského štúdie bola zverejnená 4. februára 2023. Ale už 14. marca zverejnil Tomer Ullman z Harvardu štúdiu, v ktorej ukázal, že keď testovacie otázky Kosinského jemne, z ľudského hľadiska bezvýznamne pozmenil, jazykový model si odrazu viedol o poznanie horšie. Lenže koncom marca už ľudia na internete referovali, že otázky, na ktoré v Ullmanovej štúdii model nestačil, nový GPT-4, sprístupnený 13. marca, zvláda správne.

Zbesilé tempo

Na jednom konkrétnom príklade vidíme, akým zbesilým tempom postupuje vývoj umelej inteligencie. A to sú poznatky vonkajších pozorovateľov založené na verejne sprístupnených modeloch. Čo videli ľudia, ktorí majú prístup k experimentálnym modelom v stave zrodu? Videli niečo viac? Niečo, čo ich prinútilo podpísať otvorený list? Pretože aj títo ľudia sú medzi signatármi.

Máme tu dve kategórie obáv. Tie prvé, povedzme, sekulárne. Máme sa nechať zaplaviť pseudoinformáciami? „Máme automatizáciou zrušiť všetky pracovné miesta vrátane tých, ktoré ľudí napĺňajú?“ A – to sa v liste nepíše, inak to zaznieva neustále – máme prenechať kontrolu nad umelou inteligenciou Číne?

A potom je tu obava, povedzme, civilizačná až metafyzická – „Máme vyvíjať neľudské mysle, ktoré by nás nakoniec mohli prevýšiť počtom a chytrosťou, urobiť nás prežilými a nahradiť nás? Máme stratiť kontrolu nad svojou civilizáciou?“ Takto to formuluje otvorený list. V rovnakom čase zverejnil komentár v časopise Time Eliezer Yudkowski, človek, ktorý tému nebezpečenstva umelej inteligencie spracúva oveľa dlhšie a s väčšou tvrdohlavosťou. Zatiaľ čo signatári navrhujú pauzu v trénovaní modelov, on je presvedčený o jej nutnosti. S tým, že v prípade jej porušenia netreba váhať a bombardovať dátové centrá. Otvorený list tak popri ňom vyzerá ako umiernená pozícia.

Dobrá správa z rozpútanej diskusie je, že sa na nej zúčastňujú veľmi inteligentní ľudia. Je to naozaj veľmi odlišné prostredie od jačania influencerov a davových kampaní, na ktoré sme dnes zvyknutí. Vidíte, že sú tu ľudia, ktorí vás nútia premýšľať, pretože toho vedia viac ako vy a dávno toho premysleli viac ako vy a majú dlhý horizont. Rozhodne majú väčší kaliber ako napríklad experti na verejné zdravie, tak ako sa predviedli v nedávnej pandémii (a prišli do Silicon Valley z celého sveta, čo znamená, že inde veľmi nie sú a zvyšok sveta je slabo vybavený nielen na vývoj umelej inteligencie, ale aj diskusiu o nej).

Ako najvýrečnejší kritik defenzívneho postoja sa vynoril známy ekonóm Tyler Cowen. Jeho argument je zhruba nasledovný: Po prvé, história sa tak či tak dala do pohybu, nová technológia je tu a zablokovať ju je rovnako iluzórne ako myslieť si, že môžeme zablokovať zmeny v doterajšom globálnom usporiadaní dominovanom USA, ako sme naň boli niekoľko posledných desiatok rokov zvyknutí. „Otázka už neznie, či ísť vpred,“ píše Cowen, „ale, vzhľadom na to, že niečo vpred pôjde, hoci by to bol len chaos, a stagnáciu tak či tak opustíme, získame za tie problémy aspoň niečo? Pretože, verte mi, keď neurobíme nič, aj tak sa vrátime do dejín a dosť možno za tie problémy nezískame nič.“

Po druhé, možno si predstavovať mnoho rôznych budúcností a len v obmedzenej racionalistickej perspektíve je katastrofická budúcnosť pravdepodobnejšia. Existenciálne riziko z umelej inteligencie je skutočne vzdialená možnosť, rovnako ako akákoľvek iná budúcnosť, ktorú si môžete skúsiť predstaviť. Všetky možnosti sú vzdialené a každá z nich je menej pravdepodobná, než sa zdá. Nikdy sa nepodarilo regulovať niečo, čo ešte nie je. Je to ako povedať, že ľudia mali v roku 1460 zregulovať kníhtlač.

Čo napriek tomu stále budí pochybnosti? Profesionáli si riziká AI dobre uvedomujú. Pracujú na tom, čomu hovoria „alignment“, čo by sa dalo preložiť ako: aby systém robil to, čo chceme, aby robil. Lenže jednak nie je isté, či na tom pracuje dosť ľudí. A po ďalšie tým metódam 99 percent ľudí neporozumie. Metódy „učenia“ systémov, na ktoré človek narazí, keď sa zaujíma o to, prečo je ChatGPT „woke“, sú úplne triviálnou, povrchovou šupkou tohto problému. A ďalšou fázou vývoja AI nutne je, že sa na ňom bude podieľať samotná AI. Koľko ľudí bude rozumieť tomu, čo sa deje?

Autori otvoreného listu pripomínajú, že ľudia už vývoj niektorých technológií s potenciálne katastrofickým dosahom pozastavili, a v poznámke pod čiarou uvádzajú medzi príkladmi aj „gain of function“ výskum vo virológii, teda vyvíjanie mutácií vírusov s novými schopnosťami. Ten skutočne v USA pozastavili za Obamovej administratívy a za Trumpa opäť povolili. A keď si spomenieme na laboratórium vo Wu-chane, možno by sme dnes povedali, že mal zostať zakázaný.

Text bol pôvodne publikovaný na Echo Prime. Vychádza so súhlasom redakcie.