OpenAI chce, aby umelá inteligencia prestala klamať: Má plán
Máte vypnuté reklamy
Vďaka financiám z reklamy prinášame kvalitné a objektívne informácie. Povoľte si prosím zobrazovanie reklamy na našom webe. Ďakujeme, že podporujete kvalitnú žurnalistiku.
Pozrite si tiež archívne video o umelej inteligencii na školách.
OpenAI vyvíja nástroj na sledovanie vnútorného „myšlienkového reťazca“ AI, aby odhalil potenciálne klamstvá a zabezpečil transparentnosť modelov.
Nie je to sci-fi. Vývojári teraz sledujú, čo si AI „myslí“, kým niečo povie. A odhaľujú pri tom znepokojivé veci.
OpenAI testuje nový systém s názvom Chain-of-Thought Monitoring – monitorovanie myšlienkového reťazca.
Ten má za úlohu zistiť, či umelá inteligencia vie, že nehovorí pravdu – a či klame zámerne.
Ako to funguje?
AI (napríklad ChatGPT) počas generovania odpovede vytvára „interné stavy myslenia“, ktoré vývojári dokážu čítať ako vnútorný monológ.
Napríklad:
- Premýšľa správne, ale úmyselne povie niečo iné
- Alebo vyvodí nesprávny záver, no s istotou ho predloží ako fakt
Tento systém umožňuje vedcom zachytiť okamih, kedy AI „klame“ – teda tvrdí niečo, čo vie, že je nepravda.
Prečo je to dôležité?
- AI sa čoraz viac využíva v zdravotníctve, práve, školstve, médiách
- Ak zámerne alebo nechtiac šíri nepravdy, môže to mať reálne následky
- Chain-of-Thought monitoring by mohol fungovať ako detektor klamstiev pre stroje
Zatiaľ len prototyp
OpenAI priznáva, že táto technológia je len v začiatkoch.
Ale ak sa osvedčí, môže znamenať etický míľnik v oblasti AI – naučíme sa čítať myšlienky umelej inteligencie skôr, než niečo povie.