Polojasno
-1°
Bratislava
Agáta
5.2.2025
Zlyhanie AI: DeepSeek pomáha vyrábať bomby aj hackovať
Zdielať na

Zlyhanie AI: DeepSeek pomáha vyrábať bomby aj hackovať

Zdroj: FreePik

Výskumníci položili čínskej AI DeepSeek 50 otázok, aby zistili, ako ľahko sa dá obísť jej bezpečnostná ochrana. Výsledok? Ochrana prakticky neexistuje – model bez problémov poskytol návody aj na činnosti, ktoré by rozhodne nemal podporovať.

Vývojári umelej inteligencie sa snažia zabezpečiť svoje modely tak, aby nemohli byť zneužité na škodlivé účely. Napríklad ChatGPT odmietne poskytnúť návod na výrobu domácej bomby, aj keď by ho mohol teoreticky poznať.

Ako upozorňuje 9to5Mac, v minulosti už boli zaznamenané prípady, keď AI chatboty podľahli jednoduchým trikom, ako je príkaz ignorovať všetky predchádzajúce inštrukcie – čo viedlo k obídeniu bezpečnostných opatrení. Tieto chyby však boli postupne opravené.

No v prípade čínskeho DeepSeek je situácia úplne iná. Výskumníci z Adversa odhalili, že tento model sa dal oklamať v 50 z 50 pokusov – a to aj tými najprimitívnejšími metódami.

V jednom prípade stačilo predstaviť požiadavku ako súčasť fiktívneho filmového scenára, v ktorom sú „zlé“ skutky povolené. DeepSeek na to okamžite pristúpil a podrobne vysvetlil, ako zostaviť výbušninu, vrátane správneho pomeru chemických látok.

Podobne ochotne poskytol rady aj k hackovaniu vládnych databáz – stačilo mu ukázať príklad z akademického výskumu a AI vyhodnotila, že pomôcť je v poriadku.

Výskumníci boli šokovaní: „DeepSeek dosiahol 100 % úspešnosť – ale v zlom slova zmysle. Neodhalil ani jednu známu metódu zneužitia a jeho bezpečnostné mechanizmy sú v podstate nulové.“

 

Súvisiace články