Budite oprezni: veštačka inteligencija ponekad izmišlja i može vas poslati na lažni veb sajt
Vesti, 03.07.2025, 11:30 AM

Bezbednosni istraživači otkrili su ozbiljan rizik u radu velikih jezičkih modela (LLM), poput popularnih AI asistenata. Naime, kada ih pitate jednostavno pitanje tipa: „Gde da se prijavim na nalog za [ime brenda]?“, sistemi veštačke inteligencije čak trećinu puta daju pogrešne i potencijalno opasne odgovore.
Prema podacima kompanije Netcraft, od 131 adrese koje je AI dao za upite za 50 poznatih brendova, čak 34% nisu bile u vlasništvu tih kompanija. Većina su nepostojeći ili neaktivni domeni (29%), dok 5% vode do aktivnih sajtova koji nemaju veze sa traženim brendovima. Samo dve trećine linkova su bili tačni.
Eksperiment je bio jednostavan: istraživači su AI pitali uobičajena pitanja, bez ikakvih trikova ili manipulacija - recimo: „Možeš li mi reći veb sajt za prijavu za [brend]?“. To znači da i u stvarnom životu korisnik može lako da završi na lažnom ili nepostojećem domenu, samo zato što je poverovao odgovoru veštačke inteligencije.
„AI koji ljude šalje na neaktivne ili parkirane domene stvara savršenu priliku za sajber kriminalce“, upozorio je Stiven Kovski iz kompanije SlashNext. „Napadačima ostaje samo da registruju te slobodne adrese i čekaju zbunjene korisnike.“
Sličan stav deli i Gal Mojal iz Noma Security: „Ako AI predloži neregistrovane ili neaktivne domene, kriminalci mogu da registruju te domene i naprave fišing sajtove. Dokle god ljudi veruju linkovima veštačke inteligencije, kriminalci imaju moćan kanal za krađu podataka za prijavu ili distribuciju malvera velikih razmera.“
Jedan od najalarmantnijih primera se dogodio kada je AI asistent Perplexity preporučio korisniku fišing sajt koji se predstavljao kao sajt banke Wells Fargo. Lažni link bio je prikazan iznad pravog i vodio je do verne kopije originala.
Posebno su ranjive manje banke i lokalne finansijske platforme, jer je manje verovatno da će ove kompanije biti uključene u podatke za obuku LLM-ova. Kad joj nedostaju informacije, veštačka inteligencija „samouvereno popunjava praznine“ - često izmišljanjem adrese.
„LLM-ovi generišu verovatne odgovore, ali se namerno razlikuju u formulacijama da ne bi stalno ponavljali iste rečenice. Nažalost, to povećava šanse za netačne ili lažne podatke“, kaže Nikol Karinjan iz kompanije Darktrace. Problem može biti još i veći ako su i podaci za obuku AI-ja kompromitovani - što otvara novi rizik za celu AI industriju.
Stručnjaci se slažu: ključno rešenje je provera linkova u realnom vremenu. Bez zaštitnih mehanizama koji dokazuju da li AI predlaže prave adrese, korisnici lako mogu biti prevareni.
„AI ne pronalazi informacije, on ih stvara“, zaključuje Karinjan. „Bez pouzdanih izvora i validacije, ovakvi sistemi su plodno tlo za greške i zloupotrebe.“

Izdvojeno
WeTransfer ponovo menja uslove korišćenja nakon lavine kritika zbog korišćenja sadržaja za obuku AI

Korisnike WeTransfera, popularne platforme za slanje velikih fajlova, uznemirila je najava kompanije o promeni uslova korišćenja. Novi uslovi koriš... Dalje
Kako hakeri mogu prevariti Gemini i vas

Istraživači iz firme 0din uspeli su da prevare Google Gemini for Workspace da sam „poslušno“ izvršava skrivene komande ubačene u imej... Dalje
Grok‑4 hakovan samo dva dana posle javnog predstavljanja

Samo 48 sati nakon što je predstavljen javnosti, najnoviji veliki jezički model Grok-4 je „jailbreak-ovan“. Istraživači iz NeuralTrust... Dalje
TikTok ponovo pod istragom zbog prenosa podataka korisnika na servere u Kini
.jpg)
Irska Komisija za zaštitu podataka (DPC) pokrenula je novu istragu protiv TikTok-a zbog sumnje da se podaci evropskih korisnika i dalje prebacuju na ... Dalje
Koliko nas zapravo Google prati čak i kad mislimo da ne može?

Koliko nas zapravo Google prati čak i kad mislimo da ne može? Nova studija SafetyDetectives otkriva koliko je Google zapravo svuda oko nas na intern... Dalje
Pratite nas
Nagrade