Budite oprezni: veštačka inteligencija ponekad izmišlja i može vas poslati na lažni veb sajt
Vesti, 03.07.2025, 11:30 AM
Bezbednosni istraživači otkrili su ozbiljan rizik u radu velikih jezičkih modela (LLM), poput popularnih AI asistenata. Naime, kada ih pitate jednostavno pitanje tipa: „Gde da se prijavim na nalog za [ime brenda]?“, sistemi veštačke inteligencije čak trećinu puta daju pogrešne i potencijalno opasne odgovore.
Prema podacima kompanije Netcraft, od 131 adrese koje je AI dao za upite za 50 poznatih brendova, čak 34% nisu bile u vlasništvu tih kompanija. Većina su nepostojeći ili neaktivni domeni (29%), dok 5% vode do aktivnih sajtova koji nemaju veze sa traženim brendovima. Samo dve trećine linkova su bili tačni.
Eksperiment je bio jednostavan: istraživači su AI pitali uobičajena pitanja, bez ikakvih trikova ili manipulacija - recimo: „Možeš li mi reći veb sajt za prijavu za [brend]?“. To znači da i u stvarnom životu korisnik može lako da završi na lažnom ili nepostojećem domenu, samo zato što je poverovao odgovoru veštačke inteligencije.
„AI koji ljude šalje na neaktivne ili parkirane domene stvara savršenu priliku za sajber kriminalce“, upozorio je Stiven Kovski iz kompanije SlashNext. „Napadačima ostaje samo da registruju te slobodne adrese i čekaju zbunjene korisnike.“
Sličan stav deli i Gal Mojal iz Noma Security: „Ako AI predloži neregistrovane ili neaktivne domene, kriminalci mogu da registruju te domene i naprave fišing sajtove. Dokle god ljudi veruju linkovima veštačke inteligencije, kriminalci imaju moćan kanal za krađu podataka za prijavu ili distribuciju malvera velikih razmera.“
Jedan od najalarmantnijih primera se dogodio kada je AI asistent Perplexity preporučio korisniku fišing sajt koji se predstavljao kao sajt banke Wells Fargo. Lažni link bio je prikazan iznad pravog i vodio je do verne kopije originala.
Posebno su ranjive manje banke i lokalne finansijske platforme, jer je manje verovatno da će ove kompanije biti uključene u podatke za obuku LLM-ova. Kad joj nedostaju informacije, veštačka inteligencija „samouvereno popunjava praznine“ - često izmišljanjem adrese.
„LLM-ovi generišu verovatne odgovore, ali se namerno razlikuju u formulacijama da ne bi stalno ponavljali iste rečenice. Nažalost, to povećava šanse za netačne ili lažne podatke“, kaže Nikol Karinjan iz kompanije Darktrace. Problem može biti još i veći ako su i podaci za obuku AI-ja kompromitovani - što otvara novi rizik za celu AI industriju.
Stručnjaci se slažu: ključno rešenje je provera linkova u realnom vremenu. Bez zaštitnih mehanizama koji dokazuju da li AI predlaže prave adrese, korisnici lako mogu biti prevareni.
„AI ne pronalazi informacije, on ih stvara“, zaključuje Karinjan. „Bez pouzdanih izvora i validacije, ovakvi sistemi su plodno tlo za greške i zloupotrebe.“
Izdvojeno
Bluekit: novi AI alat za phishing napade zaobilazi MFA zaštitu
Istraživači iz Varonis Threat Lab-a otkrili su novi phishing-as-a-service alat pod nazivom Bluekit, koji značajno pojednostavljuje izvođenje napad... Dalje
Ekstenzije kao biznis model: 82 Chrome ekstenzije prodaju podatke više od 6,5 miliona korisnika
Istraživanje kompanije LayerX Security otkrilo je 82 Chrome ekstenzije prikupljaju i prodaju podatke korisnika, utičući na više od 6,5 miliona lju... Dalje
Telekom mreže se zloupotrebljavaju za tajno praćenje korisnika
Telekom infrastruktura koristi se za tajno praćenje lokacije korisnika, upozoravaju istraživači iz Citizen Lab-a. Prema izveštaju istraživačkog ... Dalje
Privatni režim nije bio privatan: Firefox i Tor omogućavali praćenje korisnika
Bezbednosni istraživači iz Fingerprinta otkrili su ranjivost u Firefox-u i pregledačima baziranim na njemu, uključujući Tor Browser, koja omoguć... Dalje
StealTok: lažne TikTok ekstenzije špijuniraju više od 130.000 korisnika
Više od 130.000 korisnika izloženo je riziku zbog lažnih TikTok downloader ekstenzija za Google Chrome i Microsoft Edge, koje prikupljaju osetljive... Dalje
Pratite nas
Nagrade






Pratite nas preko RSS-a





