Studija otkriva: 65% ljudi koristi AI svakodnevno, ali većina ne zna za rizike
Vesti, 09.10.2025, 12:30 PM
Nova studija pokazuje da se alati poput ChatGPT-a i Gemini-ja uvode u svakodnevni život i poslovanje neverovatnom brzinom, dok se istovremeno zanemaruje edukacija korisnika o rizicima koje nose.
Američka neprofitna organizacija Nacionalna alijansa za sajber bezbednost (NCA) u saradnji sa kompanijom CybNet sprovela je istraživanje među više od 6.500 ispitanika u sedam zemalja. Rezultati otkrivaju ozbiljan jaz između popularnosti veštačke inteligencije i svesti o njenim bezbednosnim implikacijama.
Rezultati pokazuju da 65% ispitanika svakodnevno koristi alate veštačke inteligencije, što je rast od 21% u odnosu na prošlu godinu. Međutim, 58% korisnika izjavilo je da nikada nije prošlo formalnu obuku o tome kako bezbedno koristiti ove tehnologije. Drugim rečima, većina ljudi koristi moćne AI sisteme bez razumevanja potencijalnih rizika.
„Ljudi brže prihvataju veštačku inteligenciju u svom ličnom i profesionalnom životu nego što se edukuju o njenim rizicima“, rekla je Liza Plagemijer, izvršna direktorka NCA-a.
Zabrinjavajuće je da je 43% ispitanika priznalo da u razgovorima sa AI alatima deli osetljive informacije, uključujući finansijske i podatke o klijentima.
Izveštaj NCA-CybNet-a potvrđuje ono što stručnjaci već neko vreme upozoravaju: AI agenti mogu biti ozbiljan bezbednosni problem. Dizajnirani da automatizuju složene zadatke i povećaju efikasnost, oni često zahtevaju pristup internim sistemima i poverljivim dokumentima. Takav pristup značajno povećava rizik od curenja podataka ili čak nenamernih grešaka koje mogu imati katastrofalne posledice, poput slučajnog brisanja čitavih baza podataka.
Ranije ove godine, istraživanje kompanije SailPoint pokazalo je da 96% IT stručnjaka smatra agente veštačke inteligencije potencijalnim bezbednosnim rizicima, ali 84% je reklo da su njihove kompanije već počele da ih interno primenjuju.
Čak i konvencionalni četbotovi nose rizike. Pored toga što proizvode netačne informacije, mnogi takođe čuvaju interakcije korisnika kao podatke za obuku. Slučaj iz 2023. godine sa kompanijom Samsung postao je svojevrsno upozorenje: inženjeri su nenamerno podelili poverljive podatke kroz ChatGPT, zbog čega je kompanija zabranila korišćenje ovog alata na radnom mestu.
Veštačka inteligencija sve više postaje deo svakodnevnih aplikacija i servisa. Microsoft je, na primer, dodao funkcije veštačke inteligencije u Word, Excel i PowerPoint, pa mnogi korisnici i ne primećuju da rade sa veštačkom inteligencijom. To znači da se AI usvaja i “na mala vrata”, bez jasnog razumevanja posledica.
Iako AI donosi ogromne prednosti u produktivnosti i automatizaciji, nedostatak obuke i smernica može dovesti do ozbiljnih propusta u bezbednosti i privatnosti. Oslanjanje na tehnologiju bez adekvatne zaštite i svesti o rizicima znači da i pojedinci i organizacije mogu postati laka meta sajber kriminalaca.
Foto: Markus Winkler | Unsplash
Izdvojeno
ClickFix napad: lažni ChatGPT Atlas krade lozinke pomoću “copy-paste” trika
ClickFix napadi beleže dramatičan rast od čak 517%. Iako naizgled jednostavan “copy-paste” trik, ovaj napad je postao je ozbiljna pretn... Dalje
Ažurirane ekstenzije za Chrome i Edge zarazile 4,3 miliona uređaja
Istraživači iz kompanije Koi Security upozoravaju na opsežnu i izuzetno dobro prikrivenu kampanju koja je zarazila uređaje 4,3 miliona korisnika v... Dalje
Procurelo 1,3 milijarde lozinki i 2 milijarde imejl adresa - proverite da li je i vaša među njima
Ako niste skoro proveravali da li su vaše lozinke negde procurele, sada je pravi trenutak. U javnosti se pojavilo 1,3 milijarde jedinstvenih lozinki ... Dalje
OpenAI potvrdio curenje podataka - ChatGPT nalozi bezbedni
OpenAI je potvrdio da je došlo do curenja podataka, ali ne zbog direktnog napada na njihove sisteme, već kompromitovanjem Mixpanel-a, analitičkog ... Dalje
Piratske kopije Battlefield 6 pune malvera
Istraživači iz Bitdefender Labs-a upozorili su na novu kampanju koja cilja gejmere koji su u potrazi za „besplatnim“ ili hakovanim verzi... Dalje
Pratite nas
Nagrade






Pratite nas preko RSS-a





