Apple rinuncia (per ora) alla CSAM Detection

Dietrofront in casa Apple, l'azienda californiana ha reso noto infatti che, diversamente da quanto annunciato inizialmente, le soluzioni pensate nel corso degli ultimi mesi per tutelare i minori non verranno integrate nei sistemi operativi iOS 15 (iPhone), iPadOS 15 (tablet), watchOS 8 (Apple Watch) e macOS Monterey (terminali Mac).

Stando alle notizie attualmente disponibili tale ripensamento dovrebbe tradursi in un rinvio, si vedrà in seguito quanto lungo, e non in un pensionamento anticipato delle tecnologie che, una volta attive, avrebbero dovuto operare una sorta di monitoraggio dei contenuti veicolati verso i iCloud per combattere le attività a danno dei minori.

Per la precisione parliamo CSAM (Child Sexual Abuse Material) Detection, una tecnica basata sulla scansione preventiva delle immagini destinate al Cloud di Cupertino. Tale controllo si dovrebbe basare su un raffronto con gli archivi del NCMEC (National Center for Missing and Exploited Children) e in caso di esito positivo la segnalazione alle autorità sarebbe automatica.

Un approccio del genere presenta alcuni vantaggi in quanto permette di combattere un fenomeno criminale e impedisce l'uso di iCloud per attività illegali, dall'altra però il tutto si basa su verifiche automatizzate che (anche se supportate in seconda battuta da un controllo manuale) potrebbe dar luogo a falsi positivi dalle conseguenze pericolose, senza parlare dei rischi per la privacy.

Venendo incontro alle richieste di numerosi gruppi di pressione tra cui l'EFF (Electronic Frontier Foundation), i responsabili della Mela Morsicata avrebbero così deciso di dedicare più tempo alle analisi delle implicazioni eventualmente derivanti dalla CSAM Detection. Non ancora soddisfatti, i membri della EFF avrebbero richiesto un accantonamento definitivo del progetto.