OpenAI, Google i Meta će zbog bezbednosti označavati sve vrste sadržaja generisanog veštačkom inteligencijom
Vesti, 24.07.2023, 12:30 PM
Kompanije Google, Meta, OpenAI i druge dobrovoljno su se obavezale da će sprovesti mere kao što je obeležavanje sadržaja generisanog veštačkom inteligencijom, kako bi se tehnologija učinila bezbednijom, saopštila je Bela kuća. One su se složile da dodaju vodene žigove sadržaju generisanom veštačkom inteligencijom.
Kompanije, među kojima su i Anthropic, Inflection, Amazon.com i partner OpenAI Microsoft, obavezale su se da će temeljno testirati sisteme pre nego što ih objave i podeliti informacije o tome kako smanjiti rizike i uložiti u sajber bezbednost.
Pošto je generativna veštačka inteligencija postala veoma popularna, zakonodavci širom sveta počeli su da razmatraju kako da ublaže rizike nove tehnologije po nacionalnu bezbednost i ekonomiju.
SAD zaostaju za EU u regulaciji veštačke inteligencije. U junu, zakonodavci EU su se složili sa nacrtom pravila prema kojima bi sistemi poput ChatGPT-a morali da otkriju sadržaj generisan veštačkom inteligencijom, da pomognu u razlikovanju takozvanih dipfejk slika od stvarnih i da obezbede mere zaštite od nelegalnog sadržaja.
Na inicijativu Bajdenove administracije, sedam kompanija se obavezalo da će razviti sistem za obeležavanje svih vrsta sadržaja, od teksta, slika do audio i video snimaka, koje generiše veštačka inteligencija, tako da će korisnici znati kada je tehnologija korišćena.
Ovaj vodeni žig, ugrađen u sadržaj na tehnički način, verovatno će korisnicima olakšati uočavanje dipfejk slika ili audio snimaka koji mogu, na primer, da prikazuju nasilje koje se nije dogodilo, da pomognu prevaru ili da ugroze nečiju reputaciju.
Nejasno je kako će vodeni žig biti očigledan prilikom deljenja sadržaja.
Kompanije su se takođe obavezale da će se fokusirati na zaštitu privatnosti korisnika kako se AI bude razvijao i na to da tehnologija bude lišena predrasuda i da se ne koristi za diskriminaciju ranjivih grupa.
Ostale obaveze uključuju razvoj AI rešenja u naučne svrhe kao što su medicinska istraživanja i ublažavanje klimatskih promena.
Foto: Markus Winkler / Unsplash
Izdvojeno
Bluekit: novi AI alat za phishing napade zaobilazi MFA zaštitu
Istraživači iz Varonis Threat Lab-a otkrili su novi phishing-as-a-service alat pod nazivom Bluekit, koji značajno pojednostavljuje izvođenje napad... Dalje
Ekstenzije kao biznis model: 82 Chrome ekstenzije prodaju podatke više od 6,5 miliona korisnika
Istraživanje kompanije LayerX Security otkrilo je 82 Chrome ekstenzije prikupljaju i prodaju podatke korisnika, utičući na više od 6,5 miliona lju... Dalje
Telekom mreže se zloupotrebljavaju za tajno praćenje korisnika
Telekom infrastruktura koristi se za tajno praćenje lokacije korisnika, upozoravaju istraživači iz Citizen Lab-a. Prema izveštaju istraživačkog ... Dalje
Privatni režim nije bio privatan: Firefox i Tor omogućavali praćenje korisnika
Bezbednosni istraživači iz Fingerprinta otkrili su ranjivost u Firefox-u i pregledačima baziranim na njemu, uključujući Tor Browser, koja omoguć... Dalje
StealTok: lažne TikTok ekstenzije špijuniraju više od 130.000 korisnika
Više od 130.000 korisnika izloženo je riziku zbog lažnih TikTok downloader ekstenzija za Google Chrome i Microsoft Edge, koje prikupljaju osetljive... Dalje
Pratite nas
Nagrade






Pratite nas preko RSS-a





