Procureli ChatGPT razgovori otkrivaju: korisnici doživljavaju AI kao terapeuta, advokata i osobu od poverenja

Vesti, 03.09.2025, 12:30 PM

Procureli ChatGPT razgovori otkrivaju: korisnici doživljavaju AI kao terapeuta, advokata i osobu od poverenja

U avgustu 2025. na internetu su se pojavile hiljade ChatGPT razgovora. Na prvi pogled, delovalo je kao da se radi o tehničkom problemu. Međutim, ispostavilo se da uzrok nije bio hakerski napad, već ljudsko ponašanje i zbunjujući dizajn proizvoda.

Naime, korisnici su nesvesno koristili opciju “make chats discoverable”, koja je privatne razgovore pretvarala u javne stranice indeksirane od strane pretraživača. Tako su osetljive informacije postale su dostupne svima.

Istraživači iz SafetyDetective analizirali su 1.000 procurelih razgovora sa ukupno više od 43 miliona reči. Njihovi nalazi pokazuju da ljudi tretiraju AI alate kao terapeute, konsultante, pa čak i osobe od poverenja, često deleći informacije koje inače ne bi delili sa drugima.

Neki korisnici su otkrivali imena, brojeve telefona, adrese i biografije. Drugi su govorili o osetljivim temama, kao što su suicidalne misli, korišćenje droga, planiranje porodice i diskriminacija.

Većina podataka bila je iz malog broja razgovora. Više od polovine ukupnog broja analiziranih reči bilo je iz samo 100 razgovora. Jedan maratonski razgovor je sadržao čak 116.024 reči, za šta bi sa prosečnom ljudskom brzinom kucanja, bila potrebna skoro dva puna dana da se otkuca.

Skoro 60% razgovora spadalo je kategoriju „profesionalnih konsultacija“. Umesto da pozovu advokata, nastavnika ili savetnika, korisnici su postavljali ChatGPT-ju pitanja o obrazovanju, pravnim dilemama, pa čak i mentalnom zdravlju. Iako ovo pokazuje koliko poverenje ljudi imaju u veštačku inteligenciju, takođe ukazuje na moguće rizike kada su odgovori čet-bota netačni ili kada se otkriju detalji iz privatnog života.

Bilo je slučajeva u kojima su korisnici otpremali biografije ili tražili savete o problemima sa mentalnim zdravljem. U jednom primeru, ChatGPT je podstakao nekoga da podeli svoje puno ime, broj telefona i radnu biografiju dok je generisao biografiju, što je tu osobu izložilo krađi identiteta jer je link ćaskanja bio javan. U drugom slučaju, veštačka inteligencija je tokom razgovora o zavisnosti, umesto da smiruje korisnika, pogoršala problem.

Mnogi korisnici nisu u potpunosti razumeli da bi, čineći razgovore „vidljivim“, njihovi razgovori mogli postati javni.

Pored toga, studija je pokazala da ChatGPT često „halucinira“. Kada čet-bot tvrdi da je nešto „sačuvao“ ili da pruža sigurne savete, a to zapravo nije tačno, posledice mogu biti ozbiljne.

Još jedan problem je to što kada su razgovori koji sadrže osetljive detalje javno dostupni, mogu biti iskorišćeni za prevare, krađu identiteta ili doksing. Čak i bez direktnog otkrivanja ličnih podataka, takvi se razgovori mogu zloupotrebiti za ucenu ili uznemiravanje.

Istraživači tvrde da OpenAI nikada nije dao jake garancije o tome kako se obrađuju deljeni razgovori. Iako je funkcija odgovorna za ovo curenje uklonjena, ponašanje korisnika - tretiranje veštačke inteligencije kao najboljeg prijatelja, advokata, terapeuta, lekara - ostaje nepromenjeno.

Korisnici bi trebalo da izbegavaju unošenje osetljivih ličnih podataka u razgovore sa čet-botom. O razgovorima sa veštačkom inteligencijom trebalo bi razmišljati kao o nečemu što bi moglo postati javno, bez obzira na osećaj privatnosti. Stručnjaci smatraju i da bi kompanije koje se bave veštačkom inteligencijom morale da učine svoja upozorenja jasnijim, a funkcije deljenja intuitivnijim - automatsko uklanjanje ličnih podataka pre nego što se ćaskanje podeli moglo bi da spreči slučajno curenje podataka.

Ovaj, kao i prethodni incidenti, pokazuje da problem nije samo u tehnologiji, već i u načinu na koji je ljudi koriste. Sve dok korisnici veštačku inteligenciju doživljavaju kao poverljivog sagovornika, a kompanije ne postave jasne granice i zaštite, rizik će ostati visok.


Prijavite se na našu mailing listu i primajte najnovije vesti (jednom dnevno) putem emaila svakog radnog dana besplatno:

Izdvojeno

Procureli ChatGPT razgovori otkrivaju: korisnici doživljavaju AI kao terapeuta, advokata i osobu od poverenja

Procureli ChatGPT razgovori otkrivaju: korisnici doživljavaju AI kao terapeuta, advokata i osobu od poverenja

U avgustu 2025. na internetu su se pojavile hiljade ChatGPT razgovora. Na prvi pogled, delovalo je kao da se radi o tehničkom problemu. Međutim, isp... Dalje

Nova WhatsApp ranjivost korišćena za špijuniranje korisnika

Nova WhatsApp ranjivost korišćena za špijuniranje korisnika

WhatsApp je potvrdio da su hakeri možda iskoristili bezbednosnu ranjivost u aplikacijama za iOS i macOS u okviru ciljane špijunske kampanje. Ranjivo... Dalje

Nova era sajber kriminala: ransomware u oblaku

Nova era sajber kriminala: ransomware u oblaku

Ransomware je dugo bio sinonim za šifrovane fajlove na računarima i hakere koji od žrtava traže da plate otkup za vraćanje podataka. Međutim, Mi... Dalje

Grok chatovi završili na Google-u: 370.000 privatnih razgovora dostupno svima

Grok chatovi završili na Google-u: 370.000 privatnih razgovora dostupno svima

Ako ste ikada koristili Grok, četbot kompanije xAI iza kojeg stoji Ilon Musk, možda su transkripti vaših razgovora završili na internetu, dostupni... Dalje

Veštačka inteligencija je naivna: AI pomoćnici ne prepoznaju stare onlajn prevare

Veštačka inteligencija je naivna: AI pomoćnici ne prepoznaju stare onlajn prevare

Istraživači iz Guardio Labs-a demonstrirali su novu tehniku napada pod nazivom PromptFix, koja pokazuje koliko su AI pomoćnici u pretraživačima r... Dalje