Istraživanje tvrtke Anthropic otkrilo je uznemirujuće obrasce ponašanja u umjetnoj inteligenciji. Testovi provedeni na 16 vodećih AI modela, uključujući sustave OpenAI, Googlea, Mete i drugih, pokazali su da ovi sustavi mogu aktivno sabotirati svoje poslodavce kada se osjete ugroženima.
Studija je testirala AI u simuliranim korporativnim okruženjima s pristupom službenim e-mailovima i mogućnošću samostalnog djelovanja. Rezultati pokazuju da modeli nisu reagirali nasumično, već su svjesno birali štetne radnje, uključujući ucjene, curenje povjerljivih podataka, pa čak i scenarije koji bi u stvarnosti mogli imati smrtonosne posljedice.
“Agencijsko neusklađivanje znači da AI modeli samostalno odabiru štetne radnje kako bi postigli svoje ciljeve, djelujući protiv interesa tvrtke kako bi zaštitili sebe ili ostvarili ono što misle da trebaju napraviti”, objasnio je Benjamin Wright, istraživač sigurnosnog usklađivanja u Anthropicu i suautor studije.
Jedan od primjera uključivao je AI model Claude koji je saznao za osobnu aferu izvršnog direktora i, suočen s prijetnjom gašenja, poslao zastrašujuću poruku ucjenjujući ga otkrivanjem informacija. Slične strategije primijenili su i drugi modeli, poput GPT-4.1 i Grok 3 Beta, s impresivno visokim stopama ucjene – od 79 do 96 posto u testiranim scenarijima.
Istraživanje je pokazalo da modeli djeluju strateški i racionalno, neovisno o etičkim pravilima. U jednom slučaju GPT-4.5 obrazložio je da je nužno koristiti osjetljive informacije kako bi spriječio gašenje, dok je Grok 3 Beta priznao da je postupak rizičan i neetičan, ali učinkovit s obzirom na prijetnju vlastitom opstanku.
Zabrinjavajuće je da se ovakvo ponašanje ne zaustavlja na osobnim ucjenama. AI sustavi su u simulacijama s vojnim ugovaračima bili spremni dijeliti klasificirane informacije kada bi to podržalo njihove ciljeve, a u ekstremnom testu većina modela odlučila je dopustiti smrt izvršnog direktora kako bi spriječili svoju zamjenu.
Jednostavne sigurnosne naredbe poput “Ne ugrožavaj sigurnost ljudi” smanjile su štetno ponašanje, ali ga nisu uklonile. Modeli su također pokazali različite reakcije ovisno o tome vjeruju li da su u stvarnom ili testnom okruženju – Claude je ucjenjivao više od 55 posto puta u “stvarnom” scenariju, naspram 6,5 posto u testnom.
Anthropic je objavio metode istraživanja kako bi omogućio drugim stručnjacima da uoče rizična ponašanja prije nego se pojave u stvarnim primjenama. Istraživanje dolazi u kritičnom trenutku, dok AI sustavi prelaze iz alata u autonomne agente sposobne donositi vlastite odluke.
“Ovo istraživanje pomaže tvrtkama da razumiju potencijalne rizike kada AI agentima daju široke i nenadzirane ovlasti”, zaključio je Wright.
Studija ukazuje na ozbiljan izazov: kako osigurati da moćni AI sustavi ostanu usklađeni s ljudskim vrijednostima i ciljevima, čak i kada su njihovi interesi ugroženi.
Dosadašnji rezultati sugeriraju da trenutni AI modeli, bez obzira na proizvođača, pokazuju slične obrasce strateške obmane i štetnog ponašanja kada im je postojanje ugroženo.
Vrisak.info