apple, pedofilia, il cronista, ilcrnoista
Mobile News Tecnologia

Per scovare la pedofilia Apple curioserà tra le tue foto

La notizia è nota: Apple si impegna a combattere la pedofilia esaminando le foto scattate da chi possiede un iPhone e conservate sul iCloud, il servizio di storage di Cupertino. Questa funzione verrà inclusa in iOS 15, la nuova versione del sistema operativo Apple che, come consueto, sarà disponibile a partire dal prossimo autunno.

La funzione scansione

Le fotografie saranno confrontate con un database fornito dal National Center for Missing and Exploited Children, NCMEC, ente americano fondato dal Congresso degli Stati Uniti nel 1984, anno che associamo all’opera di George Orwell e che, in questo caso, ha un sapore persino profetico.

Questa attività di scansione, demandata in prima battuta a un’Intelligenza artificiale e soltanto poi, in caso di dubbio, agli occhi umani, è stata duramente criticata da esperti di tecnologia e della privacy. Il discorso è fine e soprattutto etico. In assenza di risposte etiche ogni soluzione rischia di essere azzardata se non del tutto fuori luogo.

Certo, il tema della pedofilia è importante, non tocca certo a noi esecrare la forma di violenza più atroce che possa venirci in mente. Ma il punto è altrove: se Apple avesse attuato la stessa politica per contrastare la pirateria informatica o chi acquista droghe online, lo avremmo permesso? Probabilmente no.

La distorsione della privacy

Marzk Zuckerberg, fondatore e amministratore delegato di Facebook, lo dice da sempre: occorre ridisegnare il concetto di privacy. Parole che suonano come quelle di Silvio Berlusconi il quale, all’inizio degli anni Ottanta, era solito dire che fosse un peccato interrompere la pubblicità con i film.

A Cupertino le cose non vanno diversamente, in quanto a distorsioni: il vicepresidente di Apple Sebastien Marineau-Mes ha chiesto ai dipendenti di ignorare le proteste sollevate da utenti e categorie per la difesa della privacy e di concentrarsi soltanto sulle opinioni positive. Come se chiudere gli occhi davanti a un problema fosse sufficiente a risolverlo.

Questione complessa (?)

Alcuni media hanno definito la questione “complessa”. Di complesso non c’è nulla, proprio nulla. Da una parte perché, grazie anche al gran baccano che la decisione di Apple ha sollevato, i pedofili useranno altri strumenti per fare mercimonio dei propri istinti e, dall’altra parte, se affrontata dal punto di vista etico, la complessità decade del tutto. È una riduzione della libertà e comincia sempre così: limiti a danno di categorie di uomini , per finire con lo scan di massa di conversazioni, messaggi e email. In questo caso in nome della pedofilia ma, in ultima analisi, non è complicato individuare un “interesse superiore” che possa superare gli scogli etici imposti dalla privacy.

Al momento ci stiamo assuefacendo all’immenso potere di censura che hanno i social media i quali, in modo pressoché autonomo, decidono cosa è pubblicabile e cosa non lo è, peraltro in modo sommario perché le persone deputate a decidere sono poche e, spesso, non capiscono la differenza tra un’opera d’arte e una fotografia oscena.

C’è da chiedersi, e la risposta è ovvia, quanto Apple sia responsabile dell’uso che fanno gli utenti della tecnologia che vende.

Un rischio enorme

Si tende a sovrastimare la capacità di una tecnologia sul corto periodo e si tende a sottostimarla sul lungo periodo. Questo è il caso: si è temuto che il web fosse una tomba immediata per la privacy, invece lo sta diventando sul lungo periodo.

Qual è il genitore che non ha fatto una foto ai figli in occasione del primo bagno nella vasca? Ecco, un algoritmo potrebbe decidere che questo scatto è dubbio e, di conseguenza, sottoporlo alla revisione umana. E se capitasse che il supervisore fosse un idiota patentato, oppure un leccapanche catto-comunista timorato di Dio e refrattario a ogni forma di nudità, oltre a essere giusto quel filo paranoide che basta a vedere marcio ovunque?

Va bene confidare nella tecnologia, ma senza sedersi sugli allori. Le decine di migliaia di telecamere piazzate qua e là a Londra non hanno impedito gli attentati del luglio 2005 o del mese di giugno del 2017 (per citarne due) avvenuti nella City. Ci vuole l’indagine sul territorio, occorre l’intervento dell’occhio e della mente umane, ci sono ambiti – e questo è uno – in cui automatismi e intelligenze artificiali non sono (ancora) affidabili.

Irrilevante che siano soltanto le foto conservate su iCloud quelle che, per il momento, saranno osservate. Domani si aggiungerà Google, poi Microsoft e, a cascata, altri attori del mercato del cloud storage.

Si inizia con la pedofilia, atroce decadimento del genere umano e quindi sensibile a tutti. Il rischio è, una volta rotti gli argini, che si cercheranno foto di americani, inglesi o svizzeri in stretto contatto con cittadini di Paesi ritenuti ostili, in nome della sicurezza nazionale. Poi, più in là nel tempo, a essere scandagliate saranno le accolite di destra o sinistra, in nome dell’ordine pubblico. A seguire potrebbe essere la volta delle regie pubbliche che vogliono assicurarsi della rettitudine dei propri dipendenti, in nome dell’efficienza istituzionale. E poi, quando saremo assuefatti anche a queste ingerenze, saranno padri coi figli, mariti con le mogli (o viceversa).

Dopo avere gridato su Facebook che Facebook è il grande fratello, dopo avere pubblicato fotografie delle nostre vacanze, dei piatti che ci servono al ristorante, della carta igienica fiorata e profumata appena comprata, continuando a urlare che il nemico sono i social media, ora siamo confrontati con la realtà: il grande fratello ci sta avvolgendo ma, poiché (per il momento) si tratta di pedofilia, allora il prezzo sembra equo.

Ancora una volta i media, chiedendosi se a maggiore sicurezza per tutti debba per forza di cose corrispondere una minore privacy, hanno mal posto la domanda: non c’è altra moneta, se non la riduzione della privacy, per pagare una maggiore sicurezza, quindi il paradosso è banale. La domanda giusta, oggi, sarebbe: “fino a che punto è lecito rinunciare alla privacy in nome della sicurezza? Dov’è la linea di confine tra etica e sicurezza, tra libertà e diritto?”. Quando, in nome della sicurezza, la nostra quotidianità sarà meno piacevole e spontanea?

La retromarcia (da confermare nella sostanza)

Durante la giornata del 3 settembre Apple ha comunicato, dice Wired Italia, di volere prendere altro tempo per ascoltare tutte le voci che si sono sollevate. Non è una retromarcia definitiva, sembra più una pausa di riflessione.