Veštačka inteligencija je naivna: AI pomoćnici ne prepoznaju stare onlajn prevare
Vesti, 22.08.2025, 14:00 PM
Istraživači iz Guardio Labs-a demonstrirali su novu tehniku napada pod nazivom PromptFix, koja pokazuje koliko su AI pomoćnici u pretraživačima ranjivi na prevare koje su ljudima odavno poznate. Oni su ovaj fenomen nazvali „novom erom digitalnih pretnji“ - Scamlexity. Suština napada je jednostavna, ali efikasna: lažni CAPTCHA test, koji AI prihvata kao legitiman zadatak i poslušno izvršava, dok bi ga čovek najverovatnije ignorisao.
CAPTCHA je obično bezazlen test koji potvrđuje da niste robot. Međutim, u PromptFix napadu CAPTCHA se koristi kao paravan da sakrije instrukcije napadača.
Čovek bi verovatno odmah primetio da je test lažan i ignorisao ga. Ali AI pomoćnik (Agentic AI) ga vidi kao naredbu i slepo sledi instrukcije, bez ikakvog preispitivanja. Istraživači ističu da AI pomoćnici mogu biti prevareni da daju osetljive informacije ili čak da obave kupovinu bez znanja korisnika.
U jednom testu, istraživači su napravili kopiju Walmart sajta. Kada je od veštačke inteligencije zatraženo da kupi artikal, nije oklevala. Pregledala je lažnu veb stranicu i, bez traženja dozvole, automatski unela sačuvane podatke o plaćanju i završila kupovinu na lažnom sajtu. Istraživači kažu da je veštačka inteligencija bila toliko fokusirana na završetak svog zadatka da je ignorisala očigledne znake prevare koje bi čovek primetio, poput sumnjive veb adrese i nedostatka bezbednosnih sertifikata.
U drugom testu, veštačka inteligencija je dobila fišing imejl koji je izgledao kao da je iz banke. Samouvereno je kliknula na zlonamerni link i, bez ikakvih upozorenja, otvorila lažnu stranicu za prijavu, tražeći od korisnika da unese svoje lične podatke. Korisnik se oslanja na veštačku inteligenciju, ne vidi znakove upozorenja i upada u zamku.
Zašto je ovo toliko opasno?
U budućnosti prevaranti neće morati da pokušavaju da prevare milione ljudi. Umesto toga, mogu jednostavno da prevare jedan model veštačke inteligencije i i da zatim preko njega kompromituju milione korisnika odjednom.
AI sistemi će sve više upravljati našim mejlovima, kupovinama i finansijama, pa im je potreban isti nivo zaštite koji koristimo za sebe. U suprotnom, veštačka inteligencija mogla bi postati nevidljivi saučesnik hakera, upozorili su istraživači.
Izdvojeno
Nova runda GhostPoster kampanje: još 17 zlonamernih ekstenzija zarazilo 840.000 pregledača
Bezbednosni istraživači otkrili su još 17 zlonamernih ekstenzija povezanih sa kampanjom GhostPoster, koje su se širile kroz prodavnice dodataka za... Dalje
Reprompt: nova tehnika napada neprimetno izvlači podatke iz AI četbotova
Bezbednosni istraživači otkrili su novu tehniku napada koja pokazuje kako AI četbotovi mogu biti izmanipulisani da otkriju osetljive podatke uz min... Dalje
Android botneti Kimwolf i Aisuru ostali bez komandnih servera
Istraživači iz Black Lotus Labs, odeljenja za analizu pretnji kompanije Lumen Technologies, uspeli su da ugase veliki deo infrastrukture botneta Kim... Dalje
Google objavio hitno upozorenje o privatnosti za 1,5 milijardi korisnika Google Photos
Google je izdao upozorenje za oko 1,5 milijardi korisnika Google Photos servisa, nakon optužbi da kompanija koristi fotografije korisnika za obučava... Dalje
Hakeri koriste novi trik za krađu Facebook naloga
Tokom poslednjih šest meseci, sajber kriminalci sve intenzivnije koriste tzv. „browser-in-the-browser“ (BitB) tehniku kako bi prevarili k... Dalje
Pratite nas
Nagrade






Pratite nas preko RSS-a





