Google, Mega, Meta i druge kompanije pokreću program za borbu protiv seksualne eksploatacije i zlostavljanja dece na mreži
Vesti, 09.11.2023, 09:30 AM
Kompanije Discord, Google, Mega, Meta, Quora, Roblox, Snap i Twitch objavile su da je pokrenut novi program pod nazivom Lantern koji omogućava tehnološkim kompanijama da dele signale o nalozima i ponašanjima koja krše njihove smernice o bezbednosti dece. Cilj programa je borba protiv seksualne eksploatacije i zlostavljanja dece na mreži (OCSEA), a kako je objašnjeno u saopštenju Tehnološke koalicije koju su osnovale kompanije, program je pokušaj da se predatori spreče da izbegnu otkrivanje premeštanjem potencijalnih žrtava na druge platforme.
„Predatori ne ograničavaju svoje pokušaje da povrede decu na pojedinačne platforme. Oni koriste više aplikacija i veb sajtova i prilagođavaju svoje taktike za sve njih kako bi izbegli da budu otkriveni. Kada se predator otkrije i udalji sa sajta zbog kršenja pravila, može se uputiti na neku od mnogih drugih aplikacija ili veb sajtova koje predatori koriste za ciljanje dece“, rekla je Meta u saopštenju.
Lantern služi kao centralna baza podataka za kompanije da daju podatke i provere svoje platforme. Kada kompanije vide signale, kao što su poznate imejl adrese ili korisnička imena koja krše OCSEA smernice, hešove materijala o seksualnom zlostavljanju dece (CSAM) ili CSAM ključne reči, mogu da ih obeleže u sopstvenim sistemima. U saopštenju se navodi da iako signali ne dokazuju striktno zloupotrebu, oni pomažu kompanijama da istraže i eventualno preduzmu mere poput gašenja naloga ili prijavljivanja ovakvih aktivnosti vlastima.
Najavljujući svoje učešće u programu, Meta je rekla da je tokom pilot faze programa koristila informacije koje je podelio jedan od partnera programa, Mega, da ukloni „više od 10.000 Facebook profila, stranica i Instagram naloga koji krše smernice“ i da ih prijavi američkom Nacionalnom centru za nestalu i eksploatisanu decu (NCMEC).
Članovi koalicije su razvijali Lantern poslednje dve godine, a grupa kaže da je pored kreiranja tehničkih rešenja program morao da prođe kroz „proveru podobnosti“ da se proveri da je usklađen sa zakonskim i regulatornim zahtevima i da je „etički usaglašen“.
Jedan od velikih izazova ovakvih programa je da budu efikasni, a da ne stvaraju nove probleme. U incidentu iz 2021. godine, policija je istraživala slučaj oca nakon što ga je Google označio za CSAM zbog slika infekcije prepona njegovog deteta.
Foto: RDNE Stock project / Pexels
Izdvojeno
Propust u ChatGPT-u omogućavao curenje razgovora korisnika
Istraživači iz Check Point Research otkrili su ranjivost u ChatGPT-ufchat koja je mogla omogućiti napadačima da izvuku osetljive podatke iz razgov... Dalje
Evropska komisija potvrdila sajber napad: hakeri tvrde da su ukrali 350 GB podataka
Hakerska grupa ShinyHunters objavila je da je kompromitovala sisteme Evropske komisije i došla do više od 350 GB podataka. Tvrdnja se prvo pojavila ... Dalje
WhatsApp za mlađe od 13: novi nalozi pod nadzorom roditelja
WhatsApp je predstavio novu funkciju dizajniranu posebno za decu mlađu od 13 godina, uvodeći naloge kojima upravljaju roditelji sa ciljem bezbednije... Dalje
ChatGPT kao terapeut: korisnici dele lične priče uprkos rizicima po privatnost
Ljudi sve češće koriste ChatGPT i generativnu veštačku inteligenciju za duboko lične teme — od emotivnog rasterećenja do traženja saveta... Dalje
Ugašena C2 infrastruktura botneta koji su zarazili preko tri miliona uređaja
Zajednička akcija vlasti iz SAD, Nemačke i Kanade rezultirala je gašenjem komandno-kontrolne (C2) infrastrukture koju su koristili botneti Aisuru, ... Dalje
Pratite nas
Nagrade






Pratite nas preko RSS-a





