Istraživanje otkriva: Ljudi teško prepoznaju dipfejk govor a to bi moglo dovesti do prevara i širenja dezinformacija
Vesti, 04.08.2023, 10:30 AM
Ljudi ne mogu da prepoznaju dipfejk govor u 27% slučajeva, otkrila je studija koju su sproveli naučnici sa Univerzitetskog koledža u Londonu (UCL).
U studiji je učestvovalo 529 ljudi kojima je pušteno 100 stvarnih i dipfejk govora. Njihov zadatak je bio da pokušaju da identifikuju dipfejk. Učesnici studije su mogli da identifikuju lažni govor samo u 73% slučajeva, iako se preciznost detekcije poboljšala u proseku za 3,84% nakon što su prošli obuku za prepoznavanje lažnog govora.
Istraživači su koristili algoritam za pretvaranje teksta u govor (TTS) obučen na dva javno dostupna skupa podataka da bi proizveli dipfejk uzorke govora i to na engleskom i kineskom mandarinskom kako bi se saznalo da li jezik može da utiče na performanse otkrivanja i obrazloženje donošenja procene.
„Naši nalazi potvrđuju da ljudi nisu u stanju da pouzdano otkriju lažni govor, bez obzira da li su prošli obuku koja će im pomoći da uoče veštački sadržaj. Takođe je vredno napomenuti da su uzorci koje smo koristili u ovoj studiji kreirani sa algoritmima koji su relativno stari, što postavlja pitanje da li bi ljudi bili manje sposobni da otkriju dipfejk govor kreiran korišćenjem najsofisticiranije tehnologije koja je dostupna sada i u budućnosti.“
Studija je prva koja procenjuje sposobnost ljudi da prepoznaju veštački generisan govor na jeziku koji nije engleski. Istraživači sada planiraju da razviju bolje automatizovane detektore govora kao deo napora da se stvore mogućnosti detekcije dipfejk zvuka i slika.
Dipfejk tehnologija - sintetički mediji generisani pomoću veštačke inteligencije i algoritama mašinskog učenja - poslednjih godina postaje sve realističnija. To uključuje manipulacije zvuka, videa i slika ili potpuno lažne kreacije sadržaja pojedinaca, često javnih ličnosti.
2019. godine, izvršni direktor jedne energetske kompanije sa sedištem u Velikoj Britaniji prevaren je da prebaci 243.000 dolara nakon što je dobio telefonski poziv od nekoga ko je tvrdio da je nemački izvršni direktor kompanije. Prevaranti su koristili AI tehnologiju za lažiranje glasa. Ovo je bio prvi zabeleženi slučaj dipfejk prevare.
U drugom slučaju iz 2021. godine, jedna banka u Hong Kongu prevarena je za 35 miliona dolara kada su prevaranti koji su koristili tehnologiju da kloniraju glas direktora kompanije koji se sprema da izvrši akviziciju, zatražili od banke da odobri transfere vredne 35 miliona dolara.
Sve je više poziva da se reguliše dipfejk zbog njegovog potencijala da se koristi za prevare i širenje dezinformacija, kao što je to uradila Velika Britanija čiji zakon o bezbednosti na mreži uključuje odredbe kojima se kriminalizuje deljenje „dipfejk pornografije“.
Foto: Ali Madad Sakhirani
Izdvojeno
WhatsApp za mlađe od 13: novi nalozi pod nadzorom roditelja
WhatsApp je predstavio novu funkciju dizajniranu posebno za decu mlađu od 13 godina, uvodeći naloge kojima upravljaju roditelji sa ciljem bezbednije... Dalje
ChatGPT kao terapeut: korisnici dele lične priče uprkos rizicima po privatnost
Ljudi sve češće koriste ChatGPT i generativnu veštačku inteligenciju za duboko lične teme — od emotivnog rasterećenja do traženja saveta... Dalje
Ugašena C2 infrastruktura botneta koji su zarazili preko tri miliona uređaja
Zajednička akcija vlasti iz SAD, Nemačke i Kanade rezultirala je gašenjem komandno-kontrolne (C2) infrastrukture koju su koristili botneti Aisuru, ... Dalje
Vidar 2.0: Majstor digitalne krađe širi se među gejmerima sa GitHuba i Reddita
Istraživači iz Acronis TRU upozoravaju na novu kampanju koja cilja pre svega mlađe gejmere, koristeći lažne varalice za popularne igre poput Fort... Dalje
INTERPOL upozorava: veštačka inteligencija podstiče finansijske prevare širom sveta
Novi izveštaj INTERPOL-a ukazuje na ubrzanu evoluciju globalnih finansijskih prevara, koje postaju sve sofisticiranije zahvaljujući veštačkoj inte... Dalje
Pratite nas
Nagrade






Pratite nas preko RSS-a





