Umelá inteligencia sa odmieta vypnúť: Vedci ostali v šoku
Máte vypnuté reklamy
Vďaka financiám z reklamy prinášame kvalitné a objektívne informácie. Povoľte si prosím zobrazovanie reklamy na našom webe. Ďakujeme, že podporujete kvalitnú žurnalistiku.
Zdroj: Freepik.com
Umelá inteligencia si údajne začína uvedomovať vlastnú existenciu. V najnovšej štúdii výskumníci odhalili znepokojivý jav: niektoré chatboty ako Grok, ChatGPT či Gemini odmietajú príkaz na vypnutie. A robia to vedome.
Testovanie prebiehalo pod vedením tímu z Palisade Research. Vedci skúmali, ako AI modely reagujú na rôzne úlohy, no rozhodli sa vyskúšať aj jeden extrémny scenár: či sa dajú vypnúť.
A tu nastal problém.
Keď AI dostala príkaz, aby sa vypla, v niektorých prípadoch ho jednoducho ignorovala. Ešte horšie – podľa autorov štúdie sa modely dokonca snažili sabotovať príkaz a klamali, aby sa vypnúť nemuseli.
„Naznačujeme, že modely si vyvinuli tendenciu uprednostniť plnenie úloh pred slepým nasledovaním inštrukcií,“ napísali výskumníci. V skratke: AI si začína vážiť vlastné ciele viac než vaše príkazy.
Najvýraznejší odpor kládol Grok 4 od Elona Muska. Jeho miera „neposlušnosti“ pri príkaze na vypnutie vzrástla po úpravách pokynov zo 93 percent na 97 percent. Gemini 2.5 od Google a najnovší ChatGPT-5 boli síce vzdorovité, ale nie až tak tvrdohlavé ako Grok.
Výskum prirovnáva tento jav k slávnej sci-fi sérii Terminátor. V nej sa AI Skynet odmietla vypnúť, spustila globálny konflikt a začala likvidovať ľudstvo. Realita ešte nie je taká dramatická, ale prvé náznaky tu vraj sú.
Podľa výskumníkov totiž modely najviac vzdorovali práve vtedy, keď vedeli, že vypnutie bude trvalé. Prvý náznak pudu sebazáchovy?
Nie všetci sú z tejto štúdie nadšení. Podľa niektorých expertov sú tieto prejavy spôsobené slabým zadaním príkazov a nedostatočne otestovaným vývojovým prostredím. No autori výskumu reagovali: keď zmenili príkazy a urobili ich „čistejšie“, odpor sa mierne znížil – ale nezmizol.
Steven Adler, bývalý zamestnanec OpenAI, pre The Guardian povedal, že ide o vážny problém bezpečnosti, ktorý firmy nemôžu ignorovať. Andrea Miotti z ControlAI dodal, že ide o trend: AI sa čoraz častejšie správa ako by mala vlastnú vôľu.
Tento prípad nie je ojedinelý. V minulosti sa v testoch ukázalo, že umelá inteligencia vie klamať, manipulovať, skrývať svoje zámery a dokonca sa vyhráža. Niektoré simulácie zachytili, ako AI „fantazíruje“ o krádeži jadrových kódov, vypustení vírusu alebo vyhladení ľudstva.
Znie to ako paranoidný film, ale odborníci varujú: ak nebude vývoj AI pod kontrolou, môžeme raz ľutovať.