Facebook razvija novi metod za borbu protiv dipfejka

Društvene mreže, 18.06.2021, 12:30 PM

Facebook razvija novi metod za borbu protiv dipfejka

Facebook planira dalje istraživanje deepfake tehnologije kako bi se zaštitio od budućih pretnji, iako to trenutno nije veliki problem za kompaniju, objavio je The Verge.

Kompanija nastavlja da finansira istraživanja o ovoj tehnologiji a najnovije je ono koje sprovode naučnici sa Državnog univerziteta u Mičigenu (MSU). Ono je usredsređeno na razvoj metode za reverzno inženjerstvo za deepfake: analiziranje slika generisanih veštačkom inteligencijom kako bi se otkrile karakteristike modela mašinskog učenja koji stoji iza njih.

Ovo je veoma važno jer bi moglo da pomogne Facebooku da pronađe sajber kriminalce koji šire deepfake na društvenim mrežama. Ovaj sadržaj može uključivati lažne informacije, ali i pornografiju. Deepfake tehnologija se veoma često koristi za ovo potonje.

Prethodna istraživanja u ovoj oblasti uspela su da identifikuju koji poznati AI model je stvorio deepfake, ali ova studija ide korak dalje identifikujući arhitektonske karakteristike nepoznatih modela. Ove karakteristike, poznate kao hiperparametri, moraju se postaviti u svakom modelu mašinskog učenja poput delova motora. Zajedno ostavljaju jedinstveni otisak prsta na gotovoj slici koji se može koristiti za utvrđivanje izvora.

Prepoznavanje karakteristika nepoznatih modela je presudno jer je deepfake softver izuzetno lako prilagoditi. To bi moglo omogućiti kriminalcima da prikriju tragove kada ih istražitelji pokušaju pratiti, smatra Tal Hasner, Facebookov direktor istraživanja.

„Pretpostavimo da neko generiše puno različitih deepfakeova i postavlja ih na različite platforme različitim korisnicima“, kaže Hasner. „Ako je ovo novi AI model koji niko ranije nije video, tada je vrlo malo toga iz prošlosti što smo mogli da kažemo o njemu. Sada možemo da kažemo: „Pogledajte, slika koja je ovde postavljena, slika koja je tamo postavljena, sve su poticale iz istog modela." A ako bismo mogli da zaplenimo laptop ili računar koji je korišćen za generisanje sadržaja, moći ćemo da kažemo: „Ovo je krivac“.“

On je uporedio ovo sa forenzičkim tehnikama koje se koriste za identifikaciju modela kamere koja je korišćena da bi se napravila fotografija.

Facebook je prošle godine održao takmičenje za otkrivanje lažnih videa, a pobednički sistem je mogao da otkrije filmove kojima se upravlja veštačkom inteligencijom u samo 65,1% slučajeva.


Prijavite se na našu mailing listu i primajte najnovije vesti (jednom dnevno) putem emaila svakog radnog dana besplatno:

Izdvojeno

Meta testira alate za Instagram i Facebook koji treba da spreče seksualne ucene i zloupotrebu intimnih slika

Meta testira alate za Instagram i Facebook koji treba da spreče seksualne ucene i zloupotrebu intimnih slika

Meta je objavila da će uskoro početi da testira novu funkciju zaštite od golotinje u Instagram DM-ovima, koja zamagljuje slike za koje se otkrije d... Dalje

TikTok kažnjen zbog štetnog sadržaja koji je preporučivan maloletnim korisnicima

TikTok kažnjen zbog štetnog sadržaja koji je preporučivan maloletnim korisnicima

Italijanska regulatorno telo za zaštitu konkurencije kaznilo je TikTok sa 10 miliona evra jer nije zaštitio korisnike od opasne igre poznate kao Fre... Dalje

Investicione prevare u reklamama na Facebooku

Investicione prevare u reklamama na Facebooku

Istraživači sajber bezbednosti iz firme Infoblox upozorili su korisnike na grupu Savvy Seahorse koja koristi Facebook reklame da bi prevarila korisn... Dalje

Prevaranti na X-u tražili donacije sa hakovanog naloga Metjua Perija

Prevaranti na X-u tražili donacije sa hakovanog naloga Metjua Perija

Zvanični nalog Metjua Perija na X-u (nekadašnji Twitter) je hakovan, a oni koji su to uradili zatražili su donacije od obožavalaca pokojnog glumca... Dalje

Od zabave do gubitka podataka: Mračna strana Facebook kvizova

Od zabave do gubitka podataka: Mračna strana Facebook kvizova

Sećate li se svih onih naizgled bezazlenih kvizova na društvenim mrežama? Iako su mnogima zabavni, oni su zapravo ozbiljan rizik za privatnost i b... Dalje