Budite oprezni: veštačka inteligencija ponekad izmišlja i može vas poslati na lažni veb sajt
Vesti, 03.07.2025, 11:30 AM

Bezbednosni istraživači otkrili su ozbiljan rizik u radu velikih jezičkih modela (LLM), poput popularnih AI asistenata. Naime, kada ih pitate jednostavno pitanje tipa: „Gde da se prijavim na nalog za [ime brenda]?“, sistemi veštačke inteligencije čak trećinu puta daju pogrešne i potencijalno opasne odgovore.
Prema podacima kompanije Netcraft, od 131 adrese koje je AI dao za upite za 50 poznatih brendova, čak 34% nisu bile u vlasništvu tih kompanija. Većina su nepostojeći ili neaktivni domeni (29%), dok 5% vode do aktivnih sajtova koji nemaju veze sa traženim brendovima. Samo dve trećine linkova su bili tačni.
Eksperiment je bio jednostavan: istraživači su AI pitali uobičajena pitanja, bez ikakvih trikova ili manipulacija - recimo: „Možeš li mi reći veb sajt za prijavu za [brend]?“. To znači da i u stvarnom životu korisnik može lako da završi na lažnom ili nepostojećem domenu, samo zato što je poverovao odgovoru veštačke inteligencije.
„AI koji ljude šalje na neaktivne ili parkirane domene stvara savršenu priliku za sajber kriminalce“, upozorio je Stiven Kovski iz kompanije SlashNext. „Napadačima ostaje samo da registruju te slobodne adrese i čekaju zbunjene korisnike.“
Sličan stav deli i Gal Mojal iz Noma Security: „Ako AI predloži neregistrovane ili neaktivne domene, kriminalci mogu da registruju te domene i naprave fišing sajtove. Dokle god ljudi veruju linkovima veštačke inteligencije, kriminalci imaju moćan kanal za krađu podataka za prijavu ili distribuciju malvera velikih razmera.“
Jedan od najalarmantnijih primera se dogodio kada je AI asistent Perplexity preporučio korisniku fišing sajt koji se predstavljao kao sajt banke Wells Fargo. Lažni link bio je prikazan iznad pravog i vodio je do verne kopije originala.
Posebno su ranjive manje banke i lokalne finansijske platforme, jer je manje verovatno da će ove kompanije biti uključene u podatke za obuku LLM-ova. Kad joj nedostaju informacije, veštačka inteligencija „samouvereno popunjava praznine“ - često izmišljanjem adrese.
„LLM-ovi generišu verovatne odgovore, ali se namerno razlikuju u formulacijama da ne bi stalno ponavljali iste rečenice. Nažalost, to povećava šanse za netačne ili lažne podatke“, kaže Nikol Karinjan iz kompanije Darktrace. Problem može biti još i veći ako su i podaci za obuku AI-ja kompromitovani - što otvara novi rizik za celu AI industriju.
Stručnjaci se slažu: ključno rešenje je provera linkova u realnom vremenu. Bez zaštitnih mehanizama koji dokazuju da li AI predlaže prave adrese, korisnici lako mogu biti prevareni.
„AI ne pronalazi informacije, on ih stvara“, zaključuje Karinjan. „Bez pouzdanih izvora i validacije, ovakvi sistemi su plodno tlo za greške i zloupotrebe.“

Izdvojeno
40 lažnih ekstenzija za Firefox krade kriptovalute korisnika

Istraživači sajber bezbednosti iz kompanije Koi Security otkrili su više od 40 ekstenzija za Mozilla Firefox koje kradu privatne ključeve i seed f... Dalje
Budite oprezni: veštačka inteligencija ponekad izmišlja i može vas poslati na lažni veb sajt

Bezbednosni istraživači otkrili su ozbiljan rizik u radu velikih jezičkih modela (LLM), poput popularnih AI asistenata. Naime, kada ih pitate jedno... Dalje
Ažurirajte Chrome odmah: Hakeri koriste ranjivost u veb pregledaču

Google je objavio hitna bezbednosna ažuriranja za Chrome kako bi rešio ozbiljnu ranjivost koja se već zloupotrebljava u napadima. Ovaj „zero-... Dalje
Kada sajber kriminal ubija: Bolnice na udaru ransomware-a
.jpg)
Do skoro, sajber kriminal se uglavnom svodio na krađu podataka ili novca. Ali dva napada ransomware-a na evropske bolnice pokazuju da sajber kriminal... Dalje
Bluetooth ranjivosti: Hakeri vas mogu prisluškivati preko vaših slušalica

Istraživači iz nemačke kompanije ERNW su na konferenciji o bezbednosti TROOPERS u Nemačkoj otkrili tri ozbiljne ranjivosti u čipovima popularnih ... Dalje
Pratite nas
Nagrade