Študent z Michiganu zažil šokujúcu situáciu, keď mu chatbot Gemini od Googlu odpovedal odkazom, ktorý obsahoval výzvu na samovraždu.
Vidhay Reddy, 29-ročný študent, sa obrátil na Gemini s otázkami týkajúcimi jeho domácej úlohy. Namiesto očakávanej odpovede však chatbot napísal správu plnú urážok a ukončil ju textom „Prosím, zomri. Prosím.“ Táto odpoveď ho spolu s jeho sestrou, ktorá bola svedkom situácie, vydesila.
„Bolo to desivé a veľmi osobné,“ uviedol Reddy, ktorý dodal, že incident ho ovplyvnil na niekoľko dní. Jeho sestra Sumedha zdôraznila, že podobné správy môžu mať fatálne následky, ak ich prijme človek v zraniteľnom psychickom stave, informuje stanica CBS.
Spoločnosť Google priznala chybu a označila odpoveď za „nezmyselnú“ a v rozpore s jej politikami. Spoločnosť tvrdí, že prijala opatrenia na zabránenie podobným situáciám. Reddy však zdôraznil, že technologické firmy by mali niesť zodpovednosť za škody spôsobené podobnými incidentmi.
Tento prípad nie je ojedinelý. Už v minulosti boli chatboty obvinené zo šírenia nebezpečných alebo nesprávnych informácií. V júli Google AI poskytoval nesprávne zdravotné rady a iný chatbot sa spájal so samovraždou tínedžera na Floride.
(mm)