Procureli ChatGPT razgovori otkrivaju: korisnici doživljavaju AI kao terapeuta, advokata i osobu od poverenja

Vesti, 03.09.2025, 12:30 PM

Procureli ChatGPT razgovori otkrivaju: korisnici doživljavaju AI kao terapeuta, advokata i osobu od poverenja

U avgustu 2025. na internetu su se pojavile hiljade ChatGPT razgovora. Na prvi pogled, delovalo je kao da se radi o tehničkom problemu. Međutim, ispostavilo se da uzrok nije bio hakerski napad, već ljudsko ponašanje i zbunjujući dizajn proizvoda.

Naime, korisnici su nesvesno koristili opciju “make chats discoverable”, koja je privatne razgovore pretvarala u javne stranice indeksirane od strane pretraživača. Tako su osetljive informacije postale su dostupne svima.

Istraživači iz SafetyDetective analizirali su 1.000 procurelih razgovora sa ukupno više od 43 miliona reči. Njihovi nalazi pokazuju da ljudi tretiraju AI alate kao terapeute, konsultante, pa čak i osobe od poverenja, često deleći informacije koje inače ne bi delili sa drugima.

Neki korisnici su otkrivali imena, brojeve telefona, adrese i biografije. Drugi su govorili o osetljivim temama, kao što su suicidalne misli, korišćenje droga, planiranje porodice i diskriminacija.

Većina podataka bila je iz malog broja razgovora. Više od polovine ukupnog broja analiziranih reči bilo je iz samo 100 razgovora. Jedan maratonski razgovor je sadržao čak 116.024 reči, za šta bi sa prosečnom ljudskom brzinom kucanja, bila potrebna skoro dva puna dana da se otkuca.

Skoro 60% razgovora spadalo je kategoriju „profesionalnih konsultacija“. Umesto da pozovu advokata, nastavnika ili savetnika, korisnici su postavljali ChatGPT-ju pitanja o obrazovanju, pravnim dilemama, pa čak i mentalnom zdravlju. Iako ovo pokazuje koliko poverenje ljudi imaju u veštačku inteligenciju, takođe ukazuje na moguće rizike kada su odgovori čet-bota netačni ili kada se otkriju detalji iz privatnog života.

Bilo je slučajeva u kojima su korisnici otpremali biografije ili tražili savete o problemima sa mentalnim zdravljem. U jednom primeru, ChatGPT je podstakao nekoga da podeli svoje puno ime, broj telefona i radnu biografiju dok je generisao biografiju, što je tu osobu izložilo krađi identiteta jer je link ćaskanja bio javan. U drugom slučaju, veštačka inteligencija je tokom razgovora o zavisnosti, umesto da smiruje korisnika, pogoršala problem.

Mnogi korisnici nisu u potpunosti razumeli da bi, čineći razgovore „vidljivim“, njihovi razgovori mogli postati javni.

Pored toga, studija je pokazala da ChatGPT često „halucinira“. Kada čet-bot tvrdi da je nešto „sačuvao“ ili da pruža sigurne savete, a to zapravo nije tačno, posledice mogu biti ozbiljne.

Još jedan problem je to što kada su razgovori koji sadrže osetljive detalje javno dostupni, mogu biti iskorišćeni za prevare, krađu identiteta ili doksing. Čak i bez direktnog otkrivanja ličnih podataka, takvi se razgovori mogu zloupotrebiti za ucenu ili uznemiravanje.

Istraživači tvrde da OpenAI nikada nije dao jake garancije o tome kako se obrađuju deljeni razgovori. Iako je funkcija odgovorna za ovo curenje uklonjena, ponašanje korisnika - tretiranje veštačke inteligencije kao najboljeg prijatelja, advokata, terapeuta, lekara - ostaje nepromenjeno.

Korisnici bi trebalo da izbegavaju unošenje osetljivih ličnih podataka u razgovore sa čet-botom. O razgovorima sa veštačkom inteligencijom trebalo bi razmišljati kao o nečemu što bi moglo postati javno, bez obzira na osećaj privatnosti. Stručnjaci smatraju i da bi kompanije koje se bave veštačkom inteligencijom morale da učine svoja upozorenja jasnijim, a funkcije deljenja intuitivnijim - automatsko uklanjanje ličnih podataka pre nego što se ćaskanje podeli moglo bi da spreči slučajno curenje podataka.

Ovaj, kao i prethodni incidenti, pokazuje da problem nije samo u tehnologiji, već i u načinu na koji je ljudi koriste. Sve dok korisnici veštačku inteligenciju doživljavaju kao poverljivog sagovornika, a kompanije ne postave jasne granice i zaštite, rizik će ostati visok.


Prijavite se na našu mailing listu i primajte najnovije vesti (jednom dnevno) putem emaila svakog radnog dana besplatno:

Izdvojeno

Napadi podržani veštačkom inteligencijom gotovo udvostručeni u 2025.

Napadi podržani veštačkom inteligencijom gotovo udvostručeni u 2025.

Broj sajber napada u kojima su napadači koristili veštačku inteligenciju gotovo se udvostručio tokom 2025. godine, navodi se u najnovijem izvešta... Dalje

Microsoft potvrdio da je Copilot zbog greške obrađivao poverljive mejlove

Microsoft potvrdio da je Copilot zbog greške obrađivao poverljive mejlove

Microsoft je potvrdio da je softverska greška u Microsoft 365 Copilot Chat omogućila AI asistentu da sumira poverljive mejlove, čak i kada su bile ... Dalje

Facebook oglasi šire lažno Windows 11 ažuriranje

Facebook oglasi šire lažno Windows 11 ažuriranje

Istraživači iz kompanije Malwarebytes upozoravaju da sajber-kriminalci koriste plaćene Facebook oglase koji imitiraju Microsoft promocije za Window... Dalje

Lažni Google oglasi za 7-Zip, LibreOffice i Final Cut Pro šire MacSync malver

Lažni Google oglasi za 7-Zip, LibreOffice i Final Cut Pro šire MacSync malver

Korisnici Mac računara koji traže popularni softver poput 7-Zip, Notepad++, LibreOffice ili Final Cut Pro mogu se naći usred aktivne kampanje lažn... Dalje

Chrome ekstenzije prikupljale podatke 37 miliona korisnika

Chrome ekstenzije prikupljale podatke 37 miliona korisnika

Istraživanje bezbednosnog istraživača Q Continuum otkriva da 287 popularnih Chrome ekstenzija prikuplja i deli podatke o istoriji pretraživanja ok... Dalje