Facebook razvija novi metod za borbu protiv dipfejka
Društvene mreže, 18.06.2021, 12:30 PM
Facebook planira dalje istraživanje deepfake tehnologije kako bi se zaštitio od budućih pretnji, iako to trenutno nije veliki problem za kompaniju, objavio je The Verge.
Kompanija nastavlja da finansira istraživanja o ovoj tehnologiji a najnovije je ono koje sprovode naučnici sa Državnog univerziteta u Mičigenu (MSU). Ono je usredsređeno na razvoj metode za reverzno inženjerstvo za deepfake: analiziranje slika generisanih veštačkom inteligencijom kako bi se otkrile karakteristike modela mašinskog učenja koji stoji iza njih.
Ovo je veoma važno jer bi moglo da pomogne Facebooku da pronađe sajber kriminalce koji šire deepfake na društvenim mrežama. Ovaj sadržaj može uključivati lažne informacije, ali i pornografiju. Deepfake tehnologija se veoma često koristi za ovo potonje.
Prethodna istraživanja u ovoj oblasti uspela su da identifikuju koji poznati AI model je stvorio deepfake, ali ova studija ide korak dalje identifikujući arhitektonske karakteristike nepoznatih modela. Ove karakteristike, poznate kao hiperparametri, moraju se postaviti u svakom modelu mašinskog učenja poput delova motora. Zajedno ostavljaju jedinstveni otisak prsta na gotovoj slici koji se može koristiti za utvrđivanje izvora.
Prepoznavanje karakteristika nepoznatih modela je presudno jer je deepfake softver izuzetno lako prilagoditi. To bi moglo omogućiti kriminalcima da prikriju tragove kada ih istražitelji pokušaju pratiti, smatra Tal Hasner, Facebookov direktor istraživanja.
„Pretpostavimo da neko generiše puno različitih deepfakeova i postavlja ih na različite platforme različitim korisnicima“, kaže Hasner. „Ako je ovo novi AI model koji niko ranije nije video, tada je vrlo malo toga iz prošlosti što smo mogli da kažemo o njemu. Sada možemo da kažemo: „Pogledajte, slika koja je ovde postavljena, slika koja je tamo postavljena, sve su poticale iz istog modela." A ako bismo mogli da zaplenimo laptop ili računar koji je korišćen za generisanje sadržaja, moći ćemo da kažemo: „Ovo je krivac“.“
On je uporedio ovo sa forenzičkim tehnikama koje se koriste za identifikaciju modela kamere koja je korišćena da bi se napravila fotografija.
Facebook je prošle godine održao takmičenje za otkrivanje lažnih videa, a pobednički sistem je mogao da otkrije filmove kojima se upravlja veštačkom inteligencijom u samo 65,1% slučajeva.
Izdvojeno
Meta će obaveštavati roditelje o čemu njihova deca razgovaraju sa veštačkom inteligencijom: „Ovo je samo početak“
Kompanija Meta najavila je novu funkciju koja će roditeljima omogućiti uvid u teme o kojima njihova deca razgovaraju sa AI četbotom. U narednim ned... Dalje
„Možeš da glasaš za mene?“: nova prevara na X-u
Nova talas prevara širi se na X-u (bivši Twitter), gde korisnici prijavljuju sumnjive direktne poruke koje dolaze od naloga koje poznaju ili prate. ... Dalje
Meta upozorava: lažni WhatsApp instalira špijunski softver
Korisnici WhatsApp-a ponovo su meta špijunskog softvera, ali ovoga puta napad ne koristi tehničke ranjivosti već lažnu verziju aplikacije. Prema n... Dalje
Šta LinkedIn zna o vama: platforma optužena za praćenje 6.000 ekstenzija pregledača
LinkedIn se suočava sa ozbiljnim optužbama nakon objave izveštaja BrowserGatea, koji tvrdi da platforma prati hiljade ekstenzija pregledača instal... Dalje
Reddit uvodi verifikaciju korisnika: borba protiv botova bez narušavanja anonimnosti
Direktor kompanije Reddit, Stiv Hafman, obratio se korisnicima nakon reakcija na najave o mogućem uvođenju provere identiteta korisnika. U novoj por... Dalje
Pratite nas
Nagrade






Pratite nas preko RSS-a





