0 00 4 minuti 3 anni 27

Apple imposta il filtro per i contenuti espliciti nei messaggi (immagine: Apple)

Nell’ultimo anno Apple ha iniziato a implementare una serie di misure per proteggere la privacy dei suoi utenti, promuovendo la messaggistica criptata in tutto il suo ecosistema e inserendo delle limitazioni sulla raccolta dei dati degli utenti per le app mobili installate sui dispositivi.

Da qualche giorno, però, il colosso di Cupertino si trova ad affrontare accuse e critiche (anche qui su Wired) secondo cui la sua prossima versione di iOs e iPadOs indebolirebbe fortemente gli standard di protezione privacy a cui oramai gli utenti si sono abituati. La causa scatenante è l’annuncio della società di voler combattere gli abusi sessuali sui minori apportando tre modifiche importanti al suo sistema. La prima riguarda l’app Ricerca di Apple e Siri. Se un utente cercherà argomenti relativi all’abuso sessuale su minori, Apple lo indirizzerà alle risorse per segnalare il contenuto o ottenere un aiuto psicologico per affrontare questo tipo di attrazione. Questo cambiamento verrà lanciato entro la fine dell’anno su iOs 15, watchOs 8, iPadOs 15 e macOs Monterey, e sarà incontrovertibile.

Non è questa, però, la novità che ha fatto storcere il naso agli utenti Apple. Cupertino ha infatti proposto l’inserimento di un’opzione di controllo genitoriale ai Messaggi. Questa seconda novità potrà oscurare le immagini sessualmente esplicite per gli utenti di età inferiore ai 18 anni, inviando ai genitori un avviso qualora una persona di età inferiore a 12 anni visualizzi o invii questo tipo di immagini. I critici però, come la docente della Harvard Cyberlaw Clinic Kendra Albert, hanno sollevato preoccupazioni riguardo a queste notifiche, dicendo che potrebbero consentire ai genitori di sbirciare senza problemi tra i messaggi dei propri figli, causando – tra le altre cose – un aumento dei problemi che devono affrontare i ragazzi queer o transgender.

https://twitter.com/KendraSerra/status/1423365222841135114?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1423367106972852228%7Ctwgr%5E%7Ctwcon%5Es2_&ref_url=https%3A%2F%2Fwww.theverge.com%2F2021%2F8%2F6%2F22613365%2Fapple-icloud-csam-scanning-whatsapp-surveillance-reactions

La terza nuova funzione è tuttavia quella più controversa. Apple ha annunciato di voler inserire un sistema che esegue la scansione delle immagini presenti in iCloud Photos per trovare materiale pedopornografico, per ora solo negli Stati Uniti. Qualora fossero rinvenute sostanziali corrispondenze tra le immagini presenti nel Cloud e quelle contenute nell’elenco dei materiali pedopornografici noti, le immagini illegali verrebbero immediatamente segnalate ai moderatori Apple, che potranno decidere di trasmetterle al National Center for Missing and Exploited Children (Ncmec). Apple afferma di aver progettato questa funzione specificamente per proteggere la privacy degli utenti durante la ricerca di contenuti illegali.

Secondo i critici, l’essenza stessa della funzionalità equivale a un backdoor di sicurezza che potrebbe potenzialmente ritorcersi sulla privacy degli utenti.

The post Le nuove misure di Apple per proteggere i minori, spiegate appeared first on Wired.

Hanno fatto storcere il naso ai critici, secondo cui tre novità decise da Cupertino potrebbero abbassare gli standard di protezione della privacy degli utenti. Ma di cosa si parla davvero?
The post Le nuove misure di Apple per proteggere i minori, spiegate appeared first on Wired.
Wired (Read More)

Dicci la tua, scrivi il tuo commento: