Secondo quanto riferito, Apple eseguirà la scansione del tuo iPhone alla ricerca di immagini di abusi sui minori

Secondo quanto riferito, Apple eseguirà la scansione del tuo iPhone alla ricerca di immagini di abusi sui minori
⏱️ 3 min read

Secondo rapporti credibili, Apple prevede di iniziare a installare software su iPhone negli Stati Uniti che eseguiranno automaticamente la scansione delle foto locali alla ricerca di immagini di abusi sui minori. Secondo quanto riferito, Apple eseguirà la scansione solo delle foto caricate su iCloud con questa tecnologia, almeno all’inizio.

Aggiornare: Apple ha confermato gran parte di questa segnalazione in un documento dettagliato.

Cosa sta facendo Apple?

I rapporti sui piani di Apple hanno avuto origine da Il Financial Times e professore della Johns Hopkins University Matteo Verde, entrambe fonti generalmente affidabili. Naturalmente, fino a quando Apple non confermerà che è così, c’è sempre la possibilità che ciò non accada. Secondo quanto riferito, Apple ha dimostrato il piano ad alcuni accademici statunitensi all’inizio di questa settimana.

Secondo i rapporti, Apple utilizzerà un sistema chiamato “neuralMatch” per scansionare gli iPhone americani alla ricerca di immagini di abusi sui minori.

In sostanza, un sistema automatizzato avviserà un team di revisori umani se ritiene che vengano rilevate immagini illegali. Da lì, un membro del team avrebbe esaminato le immagini e contattato le forze dell’ordine.

Tecnicamente, questa non è una novità: i sistemi di archiviazione di foto basati su cloud e i social network eseguono già questo tipo di scansione. La differenza qui è che Apple lo sta facendo a livello di dispositivo. Secondo Matthew Green, inizialmente eseguirà la scansione solo delle foto caricate su iCloud, ma eseguirà quella scansione sul telefono dell’utente. “Inizialmente” è la parola chiave lì, poiché potrebbe essere usata molto bene per scansionare tutte le foto localmente ad un certo punto.

Annuncio pubblicitario

Ciò dovrebbe rendere il sistema meno invasivo, poiché la scansione viene eseguita sul telefono e rispedita solo se c’è una corrispondenza, il che significa che non tutte le foto che carichi sono soggette agli occhi di estranei.

Secondo quelli al briefing, ogni foto caricata su iCloud riceve un “buono di sicurezza”, che dice se è sospetta o meno. Quando una certa quantità di immagini viene contrassegnata come sospetta, Apple le decrittograferà e le invierà alle autorità se viene trovato qualcosa che riguarda abusi sui minori.

In che modo il sistema distinguerà tra immagini di abusi sui minori e altre immagini? Secondo il rapporto, è stato testato su 200.000 immagini di abusi sessuali raccolte dal National Center for Missing and Exploited Children statunitense senza scopo di lucro.

Le immagini vengono convertite in una stringa di numeri tramite hashing e quindi confrontate con le immagini nel database.

Dopo che tutto questo è emerso, Apple ha rifiutato di commentare al Financial Times ciò che sta accadendo. Tuttavia, presumiamo che la società stia lavorando a una dichiarazione ufficiale prima che il messaggio relativo a questa mossa sfugga di mano.

Questo crea un pericoloso precedente

Probabilmente non abbiamo bisogno di dirti quanto potrebbe essere spaventoso. Le persone che abusano dei bambini dovrebbero essere catturate e punite, ma è facile vedere come una cosa del genere possa essere usata per scopi molto più invasivi.

Annuncio pubblicitario

Una tecnologia simile verrà implementata su altre piattaforme, come Mac, PC Windows e telefoni Android? Paesi come la Cina potrebbero usarlo per rilevare immagini sovversive sui telefoni dei loro cittadini? Se verrà ampiamente accettato, l’industria del copyright potrebbe utilizzarlo per avviare la scansione di contenuti piratati in pochi anni?

E, anche se funziona come pubblicizzato: Will persone innocenti essere preso nel fuoco incrociato?

Si spera che questo non sia così preoccupante come sembra.

How useful was this post?

Click on a star to rate it!

Average rating 0 / 5. Vote count: 0

No votes so far! Be the first to rate this post.

Potrebbero interessarti anche...

Font Resize
Contrast