Studija otkriva: 65% ljudi koristi AI svakodnevno, ali većina ne zna za rizike
Vesti, 09.10.2025, 12:30 PM
Nova studija pokazuje da se alati poput ChatGPT-a i Gemini-ja uvode u svakodnevni život i poslovanje neverovatnom brzinom, dok se istovremeno zanemaruje edukacija korisnika o rizicima koje nose.
Američka neprofitna organizacija Nacionalna alijansa za sajber bezbednost (NCA) u saradnji sa kompanijom CybNet sprovela je istraživanje među više od 6.500 ispitanika u sedam zemalja. Rezultati otkrivaju ozbiljan jaz između popularnosti veštačke inteligencije i svesti o njenim bezbednosnim implikacijama.
Rezultati pokazuju da 65% ispitanika svakodnevno koristi alate veštačke inteligencije, što je rast od 21% u odnosu na prošlu godinu. Međutim, 58% korisnika izjavilo je da nikada nije prošlo formalnu obuku o tome kako bezbedno koristiti ove tehnologije. Drugim rečima, većina ljudi koristi moćne AI sisteme bez razumevanja potencijalnih rizika.
„Ljudi brže prihvataju veštačku inteligenciju u svom ličnom i profesionalnom životu nego što se edukuju o njenim rizicima“, rekla je Liza Plagemijer, izvršna direktorka NCA-a.
Zabrinjavajuće je da je 43% ispitanika priznalo da u razgovorima sa AI alatima deli osetljive informacije, uključujući finansijske i podatke o klijentima.
Izveštaj NCA-CybNet-a potvrđuje ono što stručnjaci već neko vreme upozoravaju: AI agenti mogu biti ozbiljan bezbednosni problem. Dizajnirani da automatizuju složene zadatke i povećaju efikasnost, oni često zahtevaju pristup internim sistemima i poverljivim dokumentima. Takav pristup značajno povećava rizik od curenja podataka ili čak nenamernih grešaka koje mogu imati katastrofalne posledice, poput slučajnog brisanja čitavih baza podataka.
Ranije ove godine, istraživanje kompanije SailPoint pokazalo je da 96% IT stručnjaka smatra agente veštačke inteligencije potencijalnim bezbednosnim rizicima, ali 84% je reklo da su njihove kompanije već počele da ih interno primenjuju.
Čak i konvencionalni četbotovi nose rizike. Pored toga što proizvode netačne informacije, mnogi takođe čuvaju interakcije korisnika kao podatke za obuku. Slučaj iz 2023. godine sa kompanijom Samsung postao je svojevrsno upozorenje: inženjeri su nenamerno podelili poverljive podatke kroz ChatGPT, zbog čega je kompanija zabranila korišćenje ovog alata na radnom mestu.
Veštačka inteligencija sve više postaje deo svakodnevnih aplikacija i servisa. Microsoft je, na primer, dodao funkcije veštačke inteligencije u Word, Excel i PowerPoint, pa mnogi korisnici i ne primećuju da rade sa veštačkom inteligencijom. To znači da se AI usvaja i “na mala vrata”, bez jasnog razumevanja posledica.
Iako AI donosi ogromne prednosti u produktivnosti i automatizaciji, nedostatak obuke i smernica može dovesti do ozbiljnih propusta u bezbednosti i privatnosti. Oslanjanje na tehnologiju bez adekvatne zaštite i svesti o rizicima znači da i pojedinci i organizacije mogu postati laka meta sajber kriminalaca.
Foto: Markus Winkler | Unsplash
Izdvojeno
„Putevi Srbije“ upozoravaju na lažne SMS poruke o neplaćenoj putarini i prekoračenju brzine
Javno preduzeće „Putevi Srbije“ ponovo je upozorilo građane na zlonamerne SMS poruke koje se šalju u njihovo ime, a u kojima se tvrdi d... Dalje
Google Chrome prelazi na dvonedeljni ciklus izdanja
Google je najavio da će Chrome preći sa četvoronedeljnog na dvonedeljni ciklus objavljivanja, što znači da će nove funkcije, ispravke grešaka i... Dalje
Lažni Zoom i Google Meet linkovi instaliraju softver za nadzor na Windows računarima
Istraživači iz kompanije Malwarebytes upozoravaju na fišing kampanju koja koristi Zoom i Google Meet sastanke kako bi korisnike navela da instalira... Dalje
Napadi podržani veštačkom inteligencijom gotovo udvostručeni u 2025.
Broj sajber napada u kojima su napadači koristili veštačku inteligenciju gotovo se udvostručio tokom 2025. godine, navodi se u najnovijem izvešta... Dalje
Microsoft potvrdio da je Copilot zbog greške obrađivao poverljive mejlove
Microsoft je potvrdio da je softverska greška u Microsoft 365 Copilot Chat omogućila AI asistentu da sumira poverljive mejlove, čak i kada su bile ... Dalje
Pratite nas
Nagrade






Pratite nas preko RSS-a





