Meta odlaže obuku veštačke inteligencije podacima korisnika iz EU zbog mogućeg kršenja strogih evropskih propisa
Društvene mreže, 17.06.2024, 11:30 AM
Meta je saopštila da odlaže obuku svojih velikih jezičkih modela (LLM) pomoću javno dostupnog sadržaja koji punoletni korisnici dele na Facebooku i Instagramu u Evropskoj uniji.
Kompanija je izrazila razočaranje što je morala da stavi svoje planove za veštačku inteligenciju na pauzu, navodeći da je uzela u obzir povratne informacije od regulatora i agencija za zaštitu podataka u regionu.
Meta je nameravala da koristi lične podatke za obuku svojih AI modela bez traženja izričitog pristanka korisnika, već da iskoristi kao pravni osnov „legitimne interese“ za obradu podataka.
Trebalo je da ove promene stupe na snagu 26. juna. Kompanija je rekla da korisnici mogu da spreče korišćenje njihovih podataka podnošenjem posebnog zahteva. Meta već koristi sadržaj koji generišu korisnici za obuku veštačke inteligencije na drugim tržištima kao što je američko.
Meta je rekla da je „ovo korak unazad za evropske inovacije i konkurenciju u razvoju veštačke inteligencije“, i da to znači odlaganje za prednosti veštačke inteligencije koje bi dobili ljudi u Evropi.
„I dalje smo veoma uvereni da je naš pristup u skladu sa evropskim zakonima i propisima. Obuka veštačke inteligencije nije jedinstvena za naše usluge, a mi smo transparentniji od mnogih naših kolega iz industrije.“
Kompanija je rekla da ne može dovesti Meta AI u Evropu bez mogućnosti da obučava svoje AI modele sa lokalno prikupljenim informacijama koje obuhvataju različite jezike, geografske i kulturne reference, napominjući da bi to bez te mogućnosti predstavljalo „drugorazredno iskustvo“.
Sada Meta sarađuje sa DPC-om (irskom komisijom za zaštitu podataka koja je nadležna za Metu jer se evropsko sedište kompanije nalazi u Irskoj) na usaglašavanju AI alata sa propisima u Evropi.
Ovakav razvoj događaja je usledio nakon što je austrijska neprofitna organizacija Noyb ( (none of your business) podnela pritužbe u 11 evropskih zemalja zbog mogućeg kršenja Opšte uredbe o zaštiti podataka (GDPR) u regionu.
„Meta ne kaže za šta će koristiti podatke, tako da to može biti običan chatbot, izuzetno agresivno personalizovano oglašavanje ili čak dron ubica. Meta takođe kaže da podaci korisnika mogu biti dostupni bilo kojoj „trećoj strani““ - što znači bilo kome u svetu”, rekao je osnivač Noyba Maks Šrems.
Noyb je takođe kritikovao Metu zbog neiskrenih tvrdnji, ali i zbog toga što je kašnjenje Meta AI predstavila kao „kolektivnu kaznu“, ističući da GDPR zakon o privatnosti dozvoljava obradu ličnih podataka sve dok korisnici daju svoju informisanu saglasnost.
„Meta bi stoga mogla da uvede AI tehnologiju u Evropi, ako bi samo tražila od ljudi da se slože, ali izgleda da Meta čini sve da dobije saglasnost za svaku moguću obradu podataka“, navodi Noyb.
Foto: Dima Solomin | Unsplash
Izdvojeno
Korisnici Facebooka i Instagrama dobijaju AI podršku 24/7 i jednostavniji oporavak hakovanih naloga
Meta je najavila da uvodi niz novih alata za Facebook i Instagram kako bi korisnicima omogućila jednostavniji pristup podršci 24/7, brži oporavak n... Dalje
Lažne Meta pozivnice: prevara koja stiže sa prave Facebook adrese
Istraživači iz kompanije Check Point otkrili su veliku fišing kampanju u kojoj napadači šalju lažne pozivnice koje izgledaju kao da dolaze direk... Dalje
X ukida Twitter.com i traži ponovno registrovanje sigurnosnih ključeva do 10. novembra
Korisnici X-a koji za dvofaktorsku autentifikaciju (2FA) koriste sigurnosne ključeve moraju ih ponovo registrovati do 10. novembra 2025. Kompanija X ... Dalje
YouTube Ghost Network: 3.000 lažnih tutorijala šire malvere preko hakovanih YouTube kanala
Mreža YouTube naloga, nazvana YouTube Ghost Network, koristi popularnost platforme za širenje malvera kroz tutorijale za piratske programe i varalic... Dalje
Meta uvodi nove opcije za zaštitu korisnika WhatsApp-a i Messenger-a
Kompanija Meta predstavila je nove alate za zaštitu korisnika WhatsApp-a i Messenger-a od prevara. Cilj je da se spreče situacije u kojima prevarant... Dalje
Pratite nas
Nagrade






Pratite nas preko RSS-a





