Apple fa retromarcia sull’analisi delle foto inviate a iCloud contro la pedopornografia

Contrordine: Apple rinvia la discussa funzionalità di iOS 15 per la protezione dei bambini pensata per limitare la diffusione di materiale pedopornografico (Csam, child sexual abuse material). Con una nota aggiunta oggi solo alla versione inglese del comunicato usato per presentare la funzione, Apple spiega i motivi del rinvio di qualche mese per la funzionalità: “In precedenza avevamo annunciato piani per delle funzionalità che miravano alla protezione dei bambini di malintenzionati che utilizzano strumenti di comunicazione per reclutarli e abusarne e per aiutare a limitare la diffusione di materiale pedopornografico”. E aggiunge la società: “Sulla base del feedback di clienti, gruppi di difesa dei minori, ricercatori e altri, abbiamo deciso di dedicare più tempo nei prossimi mesi per raccogliere input e apportare miglioramenti prima di rilasciare queste funzionalità di sicurezza dei bambini di fondamentale importanza”.
La decisione arriva senza nessuna notifica diretta alla stampa e riguarda un meccanismo per contrastare la pedopornografia che aveva suscitato polemiche e un acceso dibattito in rete. All’inizio di agosto Apple aveva dichiarato a Tech Crunch che il rilevamento di materiale pedopornografico era una delle numerose nuove funzioni pensate per proteggere meglio i bambini che utilizzano i servizi della casa di Cupertino. Tra queste ci sono i filtri per bloccare le foto che potrebbero immortalare contenuti potenzialmente sessualmente espliciti inviati e ricevuti tramite l’account iMessage di un bambino. Un’altra funzione di monitoraggio del materiale pedopornografico sarebbe dovuta intervenire quando un utente cercava termini relativi a questi materiali tramite Siri e Cerca, visualizzando un avviso e una spiegazione.
L’annuncio di Apple, tuttavia, aveva subito sollevato numerose polemiche sui rischi connessi a questo tipo di tecnologia, ai possibili bias degli algoritmi e all’invasività della riservatezza delle comunicazione, che l’azienda porta avanti come un valore fondante. Un aspro dibattito che, a un mese dall’annuncio, ha indotto Apple a fare un passo indietro.
The post Apple fa retromarcia sull’analisi delle foto inviate a iCloud contro la pedopornografia appeared first on Wired.