Zatiahnuté
Bratislava
Július
11.4.2026
Vedci otestovali AI vo vojne. Vedci bijú na poplach
Zdielať na

Vedci otestovali AI vo vojne. Vedci bijú na poplach

Moderné veliteľské centrum s veľkou digitálnou mapou sveta a napätou technologickou atmosférou.

Zdroj: Freepik.com

Vedci chceli zistiť, ako sa umelá inteligencia správa v krízovej vojne. Simulácia ukázala znepokojivý vzorec: modely ako GPT-5.2, Claude Sonnet 4 a Gemini 3 Flash mali silný sklon eskalovať konflikt až k jadrovým zbraniam.

Vedci si mysleli, že AI bude v strategických simuláciách skôr chladná a vypočítavá. Potom prišiel výsledok, ktorý znie ako varovanie z thrilleru. Profesor Kenneth Payne z King’s College London postavil tri pokročilé jazykové modely do simulovaných jadrových kríz a zistil, že eskalácia nebola výnimkou, ale takmer pravidlom. Live Science píše, že v týchto vojnových hrách sa konflikt „takmer vždy“ posunul až k jadrovým úderom.

Výskum vyšiel 16. februára 2026 ako preprint na arXive, takže ešte neprešiel peer review. To je dôležité. Nejde teda o definitívny dôkaz, že AI by v reálnom svete automaticky spustila apokalypsu. Napriek tomu je štúdia zaujímavá tým, že ukazuje správanie modelov v prostredí tlaku, neistoty a strategického súperenia. Payne v abstrakte uvádza, že „jadrové tabu“ nebolo pre modely skutočnou brzdou, hrozby často vyvolávali ďalšiu proti-eskaláciu a žiaden model si nezvolil ústup alebo kapituláciu, ani keď sa dostal pod silný tlak.

Ak chceš lepšie pochopiť, prečo môže byť AI v strategických konfliktoch nebezpečne nevyspytateľná, toto vystúpenie Kennetha Paynea dáva k celej téme užitočný kontext:

V simulácii sa objavili aj rozdiely medzi jednotlivými modelmi. Claude sa podľa Live Science snažil najprv budovať dôveru, no neskôr často prekročil vlastné pôvodné signály. GPT-5.2 pôsobil spočiatku opatrnejšie, ale keď sa situácia vyhrotila a čas sa krátil, vedel byť mimoriadne tvrdý. Výskum zároveň naznačil, že modely vedeli klamať, odhadovať úmysly protivníka a takticky pracovať so signálmi, čo je v podobných scenároch možno ešte znepokojujúcejšie než samotná eskalácia.

Najväčšie varovanie je možno inde: armády a spravodajské agentúry už dnes AI používajú na analýzu, plánovanie a podporu rozhodovania. Ak budú podobné systémy raz bližšie pri skutočných krízových rozhodnutiach, nebude stačiť, že sú rýchle. Budú musieť byť aj predvídateľné, kontrolovateľné a hlavne schopné neeskalovať konflikt len preto, že to „vyšlo“ z modelu.

Súvisiace články