Većina zaposlenih koristi besplatne verzije AI alata kojima nedostaju odgovarajuće bezbednosne kontrole
Vesti, 17.01.2025, 10:00 AM

Skoro polovina osetljivih podataka koji zaposleni unose u AI alate kao što je ChatGPT uključuje osetljive informacije o klijentima, pokazalo je novo istraživanje koje je sprovela firma za sajber bezbednost Harmonic Security. Analiza istraživača je pokazala da je skoro svaki deseti poslovni korisnik potencijalno otkrio osetljive podatke. Studija je pratila generativne AI alate, uključujući Copilot, ChatGPT, Gemini, Claude i Perplexity. Utvrđeno je da većina zaposlenih koristi besplatne verzije ovih alata kojima nedostaju odgovarajuće bezbednosne kontrole.
„Većina korišćenja GenAI-a je svakodnevna, ali 8,5% upita koje smo analizirali potencijalno dovodi u opasnost osetljive lične i informacije kompanije“, navodi se u studiji.
U većini slučajeva, kompanije mogu da upravljaju curenjem podataka blokiranjem upita ili upozorenjem zaposlenih o mogućim implikacijama njihovih postupaka. Međutim, to nije slučaj sa svim kompanijama.
Takođe, veliki je broj besplatnih pretplata, a „ako je proizvod besplatan, onda ste vi proizvod“, podsećaju istraživači.
Mnogi besplatni alati eksplicitno navode da se obučavaju na podacima korisnika, što znači da bi osetljive informacije takođe mogle da se koriste za poboljšanje njihovih modela.
Od upita koji su možda otkrili osetljive informacije, otprilike 46% je otkrilo podatke o klijentima, kao što su informacije o naplati i podaci o autentifikaciji. Više od četvrtine je sadržalo informacije o zaposlenima, uključujući podatke o platnim spiskovima, lične podatke i evidenciju o zaposlenju. Neki upiti su uključivali traženje AI alata za sprovođenje pregleda učinka zaposlenih, pokazalo je istraživanje.
Pravni i finansijski podaci, uključujući prodaju, investicione portfelje i informacije o spajanjima i akvizicijama, činili su skoro 15% potencijalno osetljivih informacija, nakon čega slede informacije vezane za bezbednost koje bi mogli da iskoriste sajber kriminalci.
Ostatak upita čine osetljivi kod, uključujući pristupne ključeve i vlasnički izvorni kod.
Ipak, studija je pokazala da je velika većina zaposlenih koristila alate za veštačku inteligenciju ne dovodeći svoje poslodavce ili klijente u opasnost, i da su od AI alata najčešće traženi sažetak i izmene teksta, i dokumentacija za kod, pokazala je studija.
Jedan od načina za ublažavanje sigurnosnih rizika su plaćene pretplate, sistemi za praćenje u realnom vremenu koji prate i upravljaju unosom podataka u AI alatima, kao i obuka zaposlenih, smatraju stručnjaci.
Foto: Sanket Mishra | Pexels

Izdvojeno
Da li su vaše lozinke među najslabijim lozinkama?

Analiza više od 19 milijardi procurelih lozinki otkrila je i dalje prisutnu, široko rasprostranjenu pojavu ponovne upotrebe slabih lozinki. Lozinke,... Dalje
Prevare sa „tajanstvenim kutijama“ kradu podatke sa platnih kartica i novac sa računa kupaca

Istraživači kompanije Bitdefender upozorili su veoma sofisticirane prevare putem pretplata, za koje sajber kriminalci koriste „neverovatno ube... Dalje
Nalozi trećine korisnika interneta hakovani prošle godine zbog slabe lozinke
.jpg)
Bar jedan onlajn nalog više od trećine (36%) ljudi prošle godine je hakovan zbog slabe ili ukradene lozinke, otkrilo je novo istraživanje FIDO al... Dalje
Google: Softverske ranjivosti nultog dana veoma tražene i sve ih je lakše nabaviti, a evo ko ih i zašto koristi
.jpg)
Sajber kriminalci su koristili najmanje 75 bezbednosnih ranjivosti za koje proizvođači softvera nisu znali - takozvane nulte ranjivosti - otkriva iz... Dalje
Microsoft glavna meta fišing napada, Mastercard se vratio na listu najčešće zloupotrebljavanih brendova

Microsoft je i dalje brend koji se najviše zloupotrebljava u fišing napadima. Ime tehnološkog giganta pojavljuje se u više od trećine (36%) svih ... Dalje
Pratite nas
Nagrade