OpenAI, Google i Meta će zbog bezbednosti označavati sve vrste sadržaja generisanog veštačkom inteligencijom

Vesti, 24.07.2023, 12:30 PM

OpenAI, Google i Meta će zbog bezbednosti označavati sve vrste sadržaja generisanog veštačkom inteligencijom

Kompanije Google, Meta, OpenAI i druge dobrovoljno su se obavezale da će sprovesti mere kao što je obeležavanje sadržaja generisanog veštačkom inteligencijom, kako bi se tehnologija učinila bezbednijom, saopštila je Bela kuća. One su se složile da dodaju vodene žigove sadržaju generisanom veštačkom inteligencijom.

Kompanije, među kojima su i Anthropic, Inflection, Amazon.com i partner OpenAI Microsoft, obavezale su se da će temeljno testirati sisteme pre nego što ih objave i podeliti informacije o tome kako smanjiti rizike i uložiti u sajber bezbednost.

Pošto je generativna veštačka inteligencija postala veoma popularna, zakonodavci širom sveta počeli su da razmatraju kako da ublaže rizike nove tehnologije po nacionalnu bezbednost i ekonomiju.

SAD zaostaju za EU u regulaciji veštačke inteligencije. U junu, zakonodavci EU su se složili sa nacrtom pravila prema kojima bi sistemi poput ChatGPT-a morali da otkriju sadržaj generisan veštačkom inteligencijom, da pomognu u razlikovanju takozvanih dipfejk slika od stvarnih i da obezbede mere zaštite od nelegalnog sadržaja.

Na inicijativu Bajdenove administracije, sedam kompanija se obavezalo da će razviti sistem za obeležavanje svih vrsta sadržaja, od teksta, slika do audio i video snimaka, koje generiše veštačka inteligencija, tako da će korisnici znati kada je tehnologija korišćena.

Ovaj vodeni žig, ugrađen u sadržaj na tehnički način, verovatno će korisnicima olakšati uočavanje dipfejk slika ili audio snimaka koji mogu, na primer, da prikazuju nasilje koje se nije dogodilo, da pomognu prevaru ili da ugroze nečiju reputaciju.

Nejasno je kako će vodeni žig biti očigledan prilikom deljenja sadržaja.

Kompanije su se takođe obavezale da će se fokusirati na zaštitu privatnosti korisnika kako se AI bude razvijao i na to da tehnologija bude lišena predrasuda i da se ne koristi za diskriminaciju ranjivih grupa.

Ostale obaveze uključuju razvoj AI rešenja u naučne svrhe kao što su medicinska istraživanja i ublažavanje klimatskih promena.

Foto: Markus Winkler / Unsplash


Prijavite se na našu mailing listu i primajte najnovije vesti (jednom dnevno) putem emaila svakog radnog dana besplatno:

Izdvojeno

Budite oprezni: U oglasima na Facebooku za GTA VI Beta verziju krije se malver

Budite oprezni: U oglasima na Facebooku za GTA VI Beta verziju krije se malver

Fanovi GTA upozoreni su na lažne oglase za preuzimanje GTA VI Beta koji su se pojavili na društvenim mrežama. Rockstar Games, koji stoji iza GTA, n... Dalje

Sajber kriminalci iskoristili haos koji je u petak izazvao CrowdStrike za širenje malvera Remcos RAT

Sajber kriminalci iskoristili haos koji je u petak izazvao CrowdStrike za širenje malvera Remcos RAT

Petak, 19. juli, ostaće upamćen po tehničkim problemima širom sveta, najvećim u novijoj istoriji, koji su bili posledica neuspelog ažuriranja so... Dalje

Aerodromi, banke i TV stanice širom sveta blokirani zbog tehničke greške u sigurnosnom softveru

Aerodromi, banke i TV stanice širom sveta blokirani zbog tehničke greške u sigurnosnom softveru

Na hiljadama Windows računara širom sveta u bankama, avio-kompanijama, televizijama, supermarketima i mnogim drugim preduzećima danas se pojavio č... Dalje

Na hakovanim YouTube kanalima prevaranti koriste atentat na Trampa za prevaru sa kriptovalutama

Na hakovanim YouTube kanalima prevaranti koriste atentat na Trampa za prevaru sa kriptovalutama

Istraživači iz kompanije Bitdefender su upozorili na stream-jacking napade na YouTubeu u kojima se koristi pokušaj atentata na bivšeg američkog p... Dalje

Hakovan Dizni, besni hakeri objavili ukradene podatke na hakerskom forumu

Hakovan Dizni, besni hakeri objavili ukradene podatke na hakerskom forumu

Grupa haktivista tvrdi da je hakovala Diznijeve IT sisteme i ukrala više od 1,1 terabajta podataka sa internih Slack kanala za komunikaciju, uključu... Dalje