Većina zaposlenih koristi besplatne verzije AI alata kojima nedostaju odgovarajuće bezbednosne kontrole
Vesti, 17.01.2025, 10:00 AM

Skoro polovina osetljivih podataka koji zaposleni unose u AI alate kao što je ChatGPT uključuje osetljive informacije o klijentima, pokazalo je novo istraživanje koje je sprovela firma za sajber bezbednost Harmonic Security. Analiza istraživača je pokazala da je skoro svaki deseti poslovni korisnik potencijalno otkrio osetljive podatke. Studija je pratila generativne AI alate, uključujući Copilot, ChatGPT, Gemini, Claude i Perplexity. Utvrđeno je da većina zaposlenih koristi besplatne verzije ovih alata kojima nedostaju odgovarajuće bezbednosne kontrole.
„Većina korišćenja GenAI-a je svakodnevna, ali 8,5% upita koje smo analizirali potencijalno dovodi u opasnost osetljive lične i informacije kompanije“, navodi se u studiji.
U većini slučajeva, kompanije mogu da upravljaju curenjem podataka blokiranjem upita ili upozorenjem zaposlenih o mogućim implikacijama njihovih postupaka. Međutim, to nije slučaj sa svim kompanijama.
Takođe, veliki je broj besplatnih pretplata, a „ako je proizvod besplatan, onda ste vi proizvod“, podsećaju istraživači.
Mnogi besplatni alati eksplicitno navode da se obučavaju na podacima korisnika, što znači da bi osetljive informacije takođe mogle da se koriste za poboljšanje njihovih modela.
Od upita koji su možda otkrili osetljive informacije, otprilike 46% je otkrilo podatke o klijentima, kao što su informacije o naplati i podaci o autentifikaciji. Više od četvrtine je sadržalo informacije o zaposlenima, uključujući podatke o platnim spiskovima, lične podatke i evidenciju o zaposlenju. Neki upiti su uključivali traženje AI alata za sprovođenje pregleda učinka zaposlenih, pokazalo je istraživanje.
Pravni i finansijski podaci, uključujući prodaju, investicione portfelje i informacije o spajanjima i akvizicijama, činili su skoro 15% potencijalno osetljivih informacija, nakon čega slede informacije vezane za bezbednost koje bi mogli da iskoriste sajber kriminalci.
Ostatak upita čine osetljivi kod, uključujući pristupne ključeve i vlasnički izvorni kod.
Ipak, studija je pokazala da je velika većina zaposlenih koristila alate za veštačku inteligenciju ne dovodeći svoje poslodavce ili klijente u opasnost, i da su od AI alata najčešće traženi sažetak i izmene teksta, i dokumentacija za kod, pokazala je studija.
Jedan od načina za ublažavanje sigurnosnih rizika su plaćene pretplate, sistemi za praćenje u realnom vremenu koji prate i upravljaju unosom podataka u AI alatima, kao i obuka zaposlenih, smatraju stručnjaci.
Foto: Sanket Mishra | Pexels

Izdvojeno
Kako države koriste sajber kriminal za svoje ciljeve

Sajber kriminal nastavlja da se širi i razvija i postaje pretnja na nivou nacionalne bezbednosti, sa sve više napada grupa koje sponzorišu države,... Dalje
Istraživači otkrili da nijedan YouTube nalog nije privatan i da je moguće doći do email adresa svih korisnika YouTubea

Google je sa 10.633 dolara nagradio istraživače bezbednosti koji su pokazali da na YouTubeu nema zaista privatnih naloga. Oni su otkrili da se uz po... Dalje
Microsoft Edge ima novu AI funkciju za zaštitu od scareware-a u realnom vremenu
Microsoft Edge 133 koji se trenutno isporučuje korisnicima širom sveta donosi nekoliko poboljšanja, uključujući novu funkciju blokiranja program... Dalje
Stručnjaci upozoravaju na talas lažnih DeepSeek sajtova koji kradu podatke za prijavljivanje i kriptovalutu

Desetine lažnih DeepSeek veb sajtova koriste se za krađu kriptovaluta, phishing i prevare, upozorava Bitdefender. Istraživač Dominik Alvijeri otkr... Dalje
MUP apelovao na građane da budu oprezni zbog sve češćih pokušaja prevara na internetu

Ministarstvo unutrašnjih poslova Republike Srbije, Služba za borbu protiv visokotehnološkog kriminala i Posebno odelјenje za borbu protiv visokote... Dalje
Pratite nas
Nagrade