Namiesto živých kamarátov četbot. AI môže byť aj dobrým hackerom

Umelá inteligencia sa vzdeláva každý deň, chce byť užitočnou v každom smere. Čoraz viac ľudí ju dokonca uprednostňuje pred kontaktom so živými bytosťami.

Ilustračná fotografia. Foto: Carlos Barria/Reuters

Ilustračná fotografia. Foto: Carlos Barria/Reuters

Prieskum medzi viac ako dvetisíc dospelými ukázal, že okrem praktických účelov sa ľudia čoraz častejšie obracajú na AI s osobnými a citovými potrebami. Najviac využívanými nástrojmi boli podľa BBC četboty ako ChatGPT, nasledované hlasovými asistentmi typu Alexa od Amazonu.

Jeden z 25 respondentov sa dokonca priznal, že s umelou inteligenciou komunikuje denne.

AISI upozorňuje, že okrem pozitívneho vplyvu môže časté používanie umelej inteligencie viesť aj k psychologickým problémom. Výskumníci analyzovali správanie viac než dvoch miliónov používateľov online komunity na platforme Reddit, ktorá sa venovala spoločníkom s umelou inteligenciou.

Po technickom výpadku služby mnohí hlásili pocity úzkosti, depresie, poruchy spánku či zanedbávanie každodenných povinností. Objavili sa aj popisy takzvaných „abstinenčných príznakov“ po strate kontaktu s AI četbotmi.

Kyberzručnosti zdvojnásobuje

Správa zároveň vyzdvihla prudký vývoj schopností umelej inteligencie. Podľa AISI sa niektoré modely už dostali na expertnú úroveň v kybernetike – vykonávajú zložité úlohy, ktoré by si u človeka vyžadovali desaťročia skúseností. Zároveň sa ich schopnosť odhaľovať a zneužívať bezpečnostné chyby zdvojnásobuje približne každých osem mesiacov.

Deepfaky sa v roku 2025 posunuli na vyššiu úroveň. Čo nás čaká ďalej?

Mohlo by Vás zaujímať Deepfaky sa v roku 2025 posunuli na vyššiu úroveň. Čo nás čaká ďalej?

Výskumníci však nezohľadnili potenciál umelej inteligencie zapríčiniť nezamestnanosť v krátkodobom horizonte tým, že by nahradila ľudských pracovníkov.

AI podľa výskumu prekonala odborníkov s doktorátmi v oblasti biológie a v chémii ich rýchlo dobieha. V kontrolovaných testoch sa zase ukázalo, že niektoré systémy dokážu plniť počiatočné kroky potrebné na samoreplikáciu – napríklad získať prístup k výpočtovým prostriedkom cez overovanie identity.

Na to, aby to mohli robiť v reálnom svete, by však systémy umelej inteligencie museli vykonať niekoľko takýchto akcií za sebou „bez toho, aby boli odhalené“, čo v súčasnosti nie sú schopné urobiť.

Učí sa obísť ochranu systémov

Odborníci z inštitútu sa zaoberali aj schopnosťou AI modelu „sandbagging“, teda stratégie úmyselného podceňovania vlastných schopností s cieľom získať výhodu v budúcnosti. Hoci to podľa nich možné je, dôkazy o pretavení do činnosti nenašli.

Oblasť podvodov páchaných umelou inteligenciou je dlhodobým sporom výskumníkov. Kým niektorí to považujú za prehnanú schopnosť AI, iní nie. Terajší výskum potvrdil, že spoločnosti zmierňujú riziko zneužitia svojich systémov na nekalé účely množstvom ochranných opatrení.

V čom stávka na umelú inteligenciu pripomína domček z karát?

Mohlo by Vás zaujímať V čom stávka na umelú inteligenciu pripomína domček z karát?

V prípade niektorých modelov sa však čas, ktorý expertom trvalo presvedčiť systémy, aby obišli ochranné opatrenia, za šesť mesiacov štyridsaťnásobne zvýšil.

AISI sa vedome nezameriaval na ekonomické alebo environmentálne dosahy umelej inteligencie. Podľa autorov správy je ich cieľom predovšetkým posúdiť priame spoločenské dôsledky AI technológií a podporiť včasné zásahy pred ich masovým nasadením.

Britská vláda plánuje tieto poznatky využiť pri ďalšom regulovaní AI.