OpenAI, Google i Meta će zbog bezbednosti označavati sve vrste sadržaja generisanog veštačkom inteligencijom

Vesti, 24.07.2023, 12:30 PM

OpenAI, Google i Meta će zbog bezbednosti označavati sve vrste sadržaja generisanog veštačkom inteligencijom

Kompanije Google, Meta, OpenAI i druge dobrovoljno su se obavezale da će sprovesti mere kao što je obeležavanje sadržaja generisanog veštačkom inteligencijom, kako bi se tehnologija učinila bezbednijom, saopštila je Bela kuća. One su se složile da dodaju vodene žigove sadržaju generisanom veštačkom inteligencijom.

Kompanije, među kojima su i Anthropic, Inflection, Amazon.com i partner OpenAI Microsoft, obavezale su se da će temeljno testirati sisteme pre nego što ih objave i podeliti informacije o tome kako smanjiti rizike i uložiti u sajber bezbednost.

Pošto je generativna veštačka inteligencija postala veoma popularna, zakonodavci širom sveta počeli su da razmatraju kako da ublaže rizike nove tehnologije po nacionalnu bezbednost i ekonomiju.

SAD zaostaju za EU u regulaciji veštačke inteligencije. U junu, zakonodavci EU su se složili sa nacrtom pravila prema kojima bi sistemi poput ChatGPT-a morali da otkriju sadržaj generisan veštačkom inteligencijom, da pomognu u razlikovanju takozvanih dipfejk slika od stvarnih i da obezbede mere zaštite od nelegalnog sadržaja.

Na inicijativu Bajdenove administracije, sedam kompanija se obavezalo da će razviti sistem za obeležavanje svih vrsta sadržaja, od teksta, slika do audio i video snimaka, koje generiše veštačka inteligencija, tako da će korisnici znati kada je tehnologija korišćena.

Ovaj vodeni žig, ugrađen u sadržaj na tehnički način, verovatno će korisnicima olakšati uočavanje dipfejk slika ili audio snimaka koji mogu, na primer, da prikazuju nasilje koje se nije dogodilo, da pomognu prevaru ili da ugroze nečiju reputaciju.

Nejasno je kako će vodeni žig biti očigledan prilikom deljenja sadržaja.

Kompanije su se takođe obavezale da će se fokusirati na zaštitu privatnosti korisnika kako se AI bude razvijao i na to da tehnologija bude lišena predrasuda i da se ne koristi za diskriminaciju ranjivih grupa.

Ostale obaveze uključuju razvoj AI rešenja u naučne svrhe kao što su medicinska istraživanja i ublažavanje klimatskih promena.

Foto: Markus Winkler / Unsplash


Prijavite se na našu mailing listu i primajte najnovije vesti (jednom dnevno) putem emaila svakog radnog dana besplatno:

Izdvojeno

Ugašena C2 infrastruktura botneta koji su zarazili preko tri miliona uređaja

Ugašena C2 infrastruktura botneta koji su zarazili preko tri miliona uređaja

Zajednička akcija vlasti iz SAD, Nemačke i Kanade rezultirala je gašenjem komandno-kontrolne (C2) infrastrukture koju su koristili botneti Aisuru, ... Dalje

Vidar 2.0: Majstor digitalne krađe širi se među gejmerima sa GitHuba i Reddita

Vidar 2.0: Majstor digitalne krađe širi se među gejmerima sa GitHuba i Reddita

Istraživači iz Acronis TRU upozoravaju na novu kampanju koja cilja pre svega mlađe gejmere, koristeći lažne varalice za popularne igre poput Fort... Dalje

INTERPOL upozorava: veštačka inteligencija podstiče finansijske prevare širom sveta

INTERPOL upozorava: veštačka inteligencija podstiče finansijske prevare širom sveta

Novi izveštaj INTERPOL-a ukazuje na ubrzanu evoluciju globalnih finansijskih prevara, koje postaju sve sofisticiranije zahvaljujući veštačkoj inte... Dalje

Kalendarske pozivnice postaju novi alat za krađu podataka

Kalendarske pozivnice postaju novi alat za krađu podataka

Sajber kriminalci sve češće zloupotrebljavaju kalendarske pozivnice kako bi zaobišli inbox i direktno isporučili lažne fakture žrtvama, upozora... Dalje

Napadi na Signal naloge širom sveta: hakeri koriste poznate trikove socijalnog inženjeringa

Napadi na Signal naloge širom sveta: hakeri koriste poznate trikove socijalnog inženjeringa

Signal je upozorio na ciljane napade u kojima hakeri preuzimaju korisničke naloge putem socijalnog inženjeringa, dok sama enkripcija i infrastruktur... Dalje