Apple ha deciso di analizzare le foto personali per combattere la pedopornografia

Aggiornamento del 2021-09-03: Dopo aver ricevuto osservazioni di utenti, ricercatori e legali, Apple ha deciso di attendere alcuni mesi prima di attivare questa nuova funzione, per migliorare la tutela della privacy.

La Apple ha deciso di intervenire per limitare la diffusione di materiale fotografico sugli abusi sessuali sui minori, la pedopornografia (negli USA: CSAM, Child Sexual Abuse Material).

Introdurrà in iOS 15, iPadOS 15, watchOS 8 e macOS Monterey strumenti per i genitori per controllare la comunicazione in rete dei propri figli, segnalando loro eventuali situazioni a rischio e oscurando immagini pornografiche, senza che i messaggi siano leggibili da Apple (la App Messaggi usa crittografia da mittente a destinatario e non è intercettabile). Anche Siri e il motore di ricerca segnaleranno situazioni potenzialmente pericolose, soprattutto in ambito pedopornografico.

Inoltre sottoporrà a scansione le immagini caricate su iCloud Photos in modo da riconoscere eventuali violazioni della legge in tema di protezione dei minori. Non sarà un’analisi del contenuto, in senso stretto, ma un confronto automatizzato con il grande archivio di immagini pedopornografiche gestito in collaborazione dalle forze dell’ordine di diversi Paesi. Con sistemi crittografici avanzati, Apple assicura di intervenire manualmente per verifica ed eventuale susseguente denuncia alle autorità, solamente quando il numero di immagini illegali supera una certa soglia critica, evitando così di segnalare eventi occasionali, non voluti o casuali. In ogni caso, l’analisi manuale è limitata alle foto incriminate.

Fonte: apple.com/child-safety