Môže sa AI „zfetovať“? Vedci to vyskúšali
Máte vypnuté reklamy
Vďaka financiám z reklamy prinášame kvalitné a objektívne informácie. Povoľte si prosím zobrazovanie reklamy na našom webe. Ďakujeme, že podporujete kvalitnú žurnalistiku.
Zdroj: Freepik.com
Vedci skúšali „nadávkovať“ veľké jazykové modely ako ChatGPT či Gemini psychedelickými podnetmi. Výsledok? Umelá inteligencia dokáže presvedčivo simulovať stav po LSD či psilocybíne – no zároveň to môže byť nebezpečné.
Znie to ako experiment z futuristického románu: dať umelej inteligencii „100 mikrogramov LSD“ a sledovať, čo sa stane. Presne to však urobil tím výskumníkov, ktorí testovali, či veľké jazykové modely dokážu realisticky napodobniť psychedelické zážitky.
Modely ako ChatGPT, Gemini, Claude, Llama či Falcon dostali slovné zadania, aby z pohľadu prvej osoby opísali účinky LSD, psilocybínu, ayahuascy alebo meskalínu. Vzniklo 3 000 „trip reportov“, ktoré vedci porovnali s viac než tisíckou autentických ľudských zážitkov.
Podľa autora štúdie Ziva Ben-Ziona z Haifskej univerzity bola podobnosť prekvapivo vysoká. Jazykové modely dokázali reprodukovať bohaté, koherentné opisy zmenených stavov vedomia. Problém je v tom, že len simulujú štatistickú štruktúru textu. Nemajú vedomie, emócie ani neurobiologické zmeny.
A práve tu vzniká riziko. Čoraz viac ľudí sa obracia na AI ako na „trip-sittera“ – sprievodcu počas psychedelického zážitku. Výskumníci však varujú, že model môže v stave úzkosti alebo paranoje generovať jazykovo presvedčivé, no klinicky nebezpečné odpovede. Navyše, antropomorfizácia AI môže u zraniteľných ľudí posilniť bludy alebo emocionálnu závislosť.
Štúdia preto vyzýva na zavedenie jasných hraníc: modely by mali používateľom neustále pripomínať, že nie sú ľudia, a nesmú sa zapájať do romantických či sebapoškodzujúcich konverzácií.
Umelá inteligencia dokáže napodobniť jazyk zmeneného vedomia. To však neznamená, že ho prežíva. A už vôbec to neznamená, že by sme jej mali zveriť vlastnú psychiku.