U posljednje vrijeme sve je teže prepoznati što je stvaran, a što lažan sadržaj na internetu. Kako tehnološki alati napreduju, njihovi su rezultati sve bolji, za što je odličan primjer nedavno predstavljena nova generacija AI alat za generiranje videozapisa Sora.
Videozapisi koji se putem ovog alata mogu napraviti samo iz tekstualnog upisa ili na temelju jedne fotografije su nevjerojatno realistični i velika je mogućnost da, ako ste u posljednje vrijeme primili nekakav nevjerojatan video za koji ste na prvi pogled mislili da je stvaran, iza njega stoji upravo Sora, prenosi Dnevnik.hr.
Sve više AI nasilja
Često je riječ o nekakvim šaljivim i zanimljivim videozapisima, no sa Sorom i drugim sličnim alatima se pojavio i jedan zabrinjavajući trend. Naime, u posljednje vrijeme na društvenim mrežama poput TikToka i X-a sve je više hiperrealističnih, nasilnih videozapisa u kojima se prikazuje – gušenje žena i djevojaka.
Iako se na takvim videozapisima ne nalaze stvarne osobe, već ih je generirala umjetna inteligencija, njihov je sadržaj prilično zastrašujući. Na nekim od tih videa nalazi se vodeni žig “Sora 2” pa će oni koji obrate pažnju na to ipak shvatiti kako je riječ o lažnom videu. No na dijelu takvih videaa nema vodenih žigova, što znači da su korisnici pronašli način da ih uklone ili koriste druge alate za generiranje AI videa.
Iako se objavom takvog sadržaja na kojem je prikazano nasilje nad ženama i djevojkama krše pravila spomenutih platformi, TikTok i X nisu odmah reagirali na njihovo pojavljivanje i širenje. Tek nakon pritiska medija TikTok je uklonio jedan od takvih računa na kojem su objavljeni videozapisi gušenja žena i djevojaka, dok Muskova platforma X još nije reagirala i ti su videi i dalje dostupni, komentirali su na stranici Digital Trends.
Manja osjetljivost na stvarno nasilje
Pored same činjenice da netko stvara i dijeli takav uznemirujući sadržaj, izloženost online nasilju može ljude desenzibilizirati, odnosno učiniti ih manje osjetljivim na stvarno nasilje. Također, ovo je još jedan dokaz koliko je već sada jednostavno stvoriti toliko realistične lažne snimke nasilja i možemo se samo pitati što možemo očekivati u budućnosti. Takvi lažni i realni videozapisi koji uključuju neke poznate osobe, političare i slično, mogli bi izazvati velike probleme te imati ozbiljne posljedice za sigurnost, zakonodavstvo, ali i čitavo društvo.
Upravo zbog toga raste pritisak javnosti na OpenAI i druge AI kompanije, kao i društvene mreže da uvedu strože zaštitne mjere, kao i mehanizme prepoznavanja nasilnih AI sadržaja, što će svakako biti izazovno.
Vrisak.info















