Apple è stata accusata di sottostimare gravemente la quantità di materiale pedopornografico iCloud iMessage allisce anche nel riportare tutto il CSAM identificato
La National Society for the Prevention of Cruelty to Children sottostimi notevolmente Secondo l'NSPCC, la polizia ha investigato più casi di CSAM solo nel Regno Unito nel 2023 rispetto a quanto Apple ha segnalato globalmente per l'intero anno
Meta e Google segnalano milioni di casi di CSAM all'anno, Apple solo un paio di centinaia
Tra aprile 2022 e marzo 2023, in Inghilterra e Galles, l'NSPCC ha rilevato che "Apple è stata implicata in 337 reati registrati di immagini di abuso su minori." Tuttavia, nel 2023, Apple ha segnalato solo 267 casi di CSAM al National Center for Missing & Exploited Children (NCMEC), presumibilmente rappresentando tutti i casi di CSAM sulle sue piattaforme a livello mondiale.
Le grandi aziende tecnologiche negli Stati Uniti devono segnalare il CSAM al NCMEC quando viene trovato, ma mentre Apple riporta un paio di centinaia di casi annualmente, i suoi grandi concorrenti come Meta e Google ne segnalano milioni, secondo il rapporto del NCMEC. Gli esperti hanno espresso preoccupazione che Apple "chiaramente" sottostimi il CSAM sulle sue piattaforme.
Finora, Apple non ha commentato il rapporto dell'NSPCC. Lo scorso settembre, Apple ha risposto alle richieste della Heat Initiative di rilevare più CSAM, affermando che, piuttosto che concentrarsi sulla scansione di contenuti illegali, la sua attenzione è rivolta a connettere direttamente gli utenti vulnerabili o vittimizzati con risorse locali e forze dell'ordine che possono assisterli nelle loro comunità.
Se vuoi aggiornamenti su su questo argomento inserisci la tua email nel box qui sotto:
Compilando il presente form acconsento a ricevere le informazioni relative ai servizi di cui alla presente pagina ai sensi dell'informativa sulla privacy