Dr Commodore
LIVE

Contestata la scelta di Apple di fermare lo sviluppo dello strumento di rilevazione abusi sui minori

Un gruppo di tutela dei minori, Heat Initiative, ha storto il naso sulla decisione di Apple di fermare lo sviluppo del CSMA, un software in grado di bloccare alla sorgente materiale che evidenzia segni di abusi sui minori. La casa di Cupertino ha argomentato la scelta controversa esponendo le criticità dello sviluppo di tale tecnologia e ha esposto come intende impegnarsi per arginare il problema.

La richiesta di Heat Initiative a Apple

Il gruppo di Heat Initiative in questi giorni ha riaperto una questione che tiene la società di Cupertino tra due fuochi da ben due anni, divisa tra la sicurezza dei dati dei suoi utenti e la lotta agli abusi sui minori. Nell’agosto del 2021 Apple ha annunciato un software in grado di scovare e rimuovere dai profili iCloud i contenuti che rilevassero abusi sui minori: il CSMA, per l’appunto.

Accolta a gran voce dai gruppi di tutela dei minori, l’iniziativa ha però sollevato da subito delle controversie. Implementare un sistema in grado di analizzare foto e video degli utenti avrebbe esposto la piattaforma a un rischio maggiore di incursioni hacker. Abbassando così la sicurezza della privacy tanto cara a Apple.

Aple logo iOS

Già a settembre 2021 la compagnia di Cupertino aveva bloccato lo sviluppo dello strumento di rilevazione abusi sui minori attirando più di qualche critica. Heat Initiative in questi giorni ha riaperto la questione scrivendo direttamente al CEO di Apple Tim Cook, dichiarando la scelta come “deludente”.

La risposta di Apple

A sottolineare quanto sia forte l’impegno del CEO e soci in questa delicata e annosa questione, c’è stata la rapida risposta a Heat Initiative non si è fatta aspettare. Il direttore di Apple per la sicurezza dei bambini e la privacy degli utenti, Erik Neuenschwander, ha prontamente esposto il punto di vista della società.

apple servizi spesa domicilio 1

Con una mail alla presidentessa di Heat Initiative la compagnia di Cupertino ha esposto la proprie conclusioni sulla questione:

“La pedopornografia è aberrante e noi ci impegniamo a spezzare la catena di coercizione e influenza che rende i bambini suscettibili a subirlo. […] La scansione dei dati iCloud archiviati privatamente da ogni utente creerebbe nuovi vettori di minacce che i ladri di dati potrebbero trovare e sfruttare”.

Con le dovute premesse quindi Apple ha risposto di aver in questi anni cercato di tenere fede alla promessa fatta ma, trovandosi di fronte a delle avversità, ha dovuto ricalibrare il tiro. La controfferta della società nella prevenzione degli abusi consisterà nel rendere disponibili una serie di strumenti e risorse locali per gli utenti note come Comunication Safety. La società si impegnetà infatti a sensibilizzare le vittime degli abusi ad affidarsi agli organi preposti.

LEGGI ANCHE: Apple obbligata a pagare quasi 5 milioni a una studentessa per violazione della privacy

Fonte: Wired

Apple Store

Articoli correlati

Giovanni Stilo

Giovanni Stilo

Classe '96 è appassionato di tech da quando da bambino in ordine: rompeva, smontava e rimontava tutte le cose elettroniche di casa. Oltre che con MOBO, GPU e iDevices gli piace flirtare con libri, fumetti e guarda molti più sport di quanto sia sano fare. Nella vita tendenzialmente scrive e lavora diviso tra cinema e TV.

Condividi