In molti paesi del mondo, così come nella stragrande maggioranza degli stati membri dell’Unione Europea, i dati biometrici – ossia i dati personali ottenuti da un trattamento tecnico specifico, relativi alle caratteristiche fisiche, fisiologiche o comportamentali di una persona fisica e che ne consentono o confermano l’identificazione univoca, quali l’immagine facciale o i dati dattiloscopici” (art. 4 GDPR) – vengono collezionati nello spazio pubblico a nostra insaputa.

Si tratta di informazioni strettamente legate ai nostri corpi e ai nostri comportamenti, che definiscono chi siamo e come siamo. Parliamo di informazioni personali acquisite, ad esempio, tramite il riconoscimento facciale, quindi con la scansione e archiviazione dei tratti dei nostri volti: tracciati, registrati e conservati in database di cui non sappiamo granché oggi, né tantomeno possiamo immaginare come questi dati biometrici potrebbero essere utilizzati in futuro.

Se, da un lato, è vero che siamo consapevolmente rassegnati a cedere una mole sterminata di dati personali a terzi poiché non riusciamo a fare a meno di usare i nostri smartphone, dall’altro, forse non ci è chiaro abbastanza il modo in cui le nostre vite possano essere sorvegliate anche mentre viviamo gli spazi pubblici. 

Per queste ed altre ragioni occorre interessarsi ai rischi legati alla sorveglianza biometrica di massa e al suo impatto sulla società.

Tecnologie biometriche e videosorveglianza - Laura Carrer

Al Festival Internazionale del giornalismo di Perugia abbiamo seguito diverse conferenze in merito alle odierne tecnologie di controllo e sorveglianza, alla loro evoluzione, al business che ci sta dietro, alla necessità di pensare a nuove regolamentazioni e codici etici per la gestione dell’intelligenza artificiale. Abbiamo avuto modo di discutere con una delle relatrici, Laura Carrer, giornalista freelance specializzata in violazioni dei diritti umani, tecnologie di sorveglianza e algoritmi, nonché ricercatrice e advocacy specialist per Hermes Center for Transparency and Digital Human Rights.

Quel che è emerso e che continua a emergere ciclicamente nel corso della storia è che, in nome della pubblica sicurezza, le autorità si arrogano il diritto di sorvegliare lo spazio pubblico violando le libertà personali e i diritti fondamentali, quali il diritto alla privacy, il diritto alla libertà di parola, il diritto di protestare e di non essere discriminati. 

Lo stesso Parlamento Europeo il 6 ottobre 2021 ha adottato una risoluzione per chiedere alla Commissione Europea di restringere e/o vietare negli spazi pubblici l’utilizzo di tecnologie di sorveglianza biometrica come strumento di prevenzione generalizzato da parte delle forze dell’ordine in tutta l’Unione europea. Nel documento si legge:

D. “considerando [che] l’uso sempre più frequente dell’IA nel diritto penale si basa, in particolare, sulla promessa che ridurrà determinati tipi di reati e favorirà l’adozione di decisioni più obiettive; che tale promessa non sempre viene mantenuta;[…]

G. considerando che l’Unione, insieme agli Stati membri, ha l’importante responsabilità di garantire che le decisioni relative al ciclo di vita e all’impiego delle applicazioni di IA nel settore giudiziario e delle attività di contrasto siano prese in modo trasparente, tutelino appieno i diritti fondamentali e, in particolare, non perpetuino le discriminazioni, le distorsioni o i pregiudizi laddove esistano; che le pertinenti decisioni politiche dovrebbero rispettare i principi di necessità e proporzionalità al fine di garantire la costituzionalità e un sistema di giustizia equo e umano;

H. […] ; che l‘applicazione generalizzata dell’IA al fine della sorveglianza di massa sarebbe sproporzionata; […]

26. chiede, inoltre, un divieto permanente dell’utilizzo dei sistemi di analisi e/o riconoscimento automatici negli spazi pubblici di altre caratteristiche umane quali l’andatura, le impronte digitali, il DNA, la voce e altri segnali biometrici e comportamentali;

27. chiede, tuttavia, una moratoria sulla diffusione dei sistemi di riconoscimento facciale per le attività di contrasto con funzione di identificazione, a meno che non siano usate strettamente ai fini dell’identificazione delle vittime di reati, finché le norme tecniche non possano essere considerate pienamente conformi con i diritti fondamentali […];

28. esprime profonda preoccupazione per l’utilizzo di database privati di riconoscimento facciale da parte delle autorità di contrasto e dei servizi di intelligence, come Clearview AI, una banca dati di oltre tre miliardi di immagini raccolte illegalmente dai social network e da altre fonti Internet, comprese immagini di cittadini dell’Unione; invita gli Stati membri a obbligare le autorità di contrasto a indicare se stanno utilizzando la tecnologia Clearview AI o tecnologie equivalenti di altri fornitori; rammenta il parere del comitato europeo per la protezione dei dati secondo cui l’utilizzo di un servizio quale Clearview AI da parte delle autorità di contrasto nell’Unione europea non sarebbe probabilmente coerente con il regime di protezione dei dati dell’UE; chiede un divieto sull’utilizzo di database privati di riconoscimento facciale per le attività di contrasto; […]

30. sottolinea che l’uso dei dati biometrici è correlato in senso più ampio al principio di dignità umana, che è la base di tutti i diritti fondamentali garantiti dalla Carta; ritiene che l’utilizzo e la raccolta di dati biometrici per finalità di identificazione a distanza, ad esempio attraverso il riconoscimento facciale in luoghi pubblici, nonché i cancelli per il controllo automatizzato alle frontiere utilizzati per i controlli negli aeroporti, possano presentare rischi specifici per i diritti fondamentali, le cui implicazioni potrebbero variare notevolmente a seconda delle finalità, del contesto e dell’ambito di impiego; sottolinea, inoltre, la controversa validità scientifica della tecnologia di riconoscimento utilizzata, come le fotocamere che rilevano i movimenti degli occhi e le variazioni delle dimensioni della pupilla, nel contesto delle attività di contrasto;

 

Alla luce di queste considerazioni e richieste avanzate dal Parlamento per limitare gli infiniti e incontrollabili usi dell’Intelligenza Artificiale (IA) – materia per cui si attende ancora un Regolamento europeo su cui la Commissione Europea sta lavorando per armonizzare le norme sull’IA all’interno degli Stati membri – quello che possiamo fare noi come singoli cittadini è sostenere le campagne che sono state portate avanti a livello europeo da associazioni e organizzazioni che si occupano di salvaguardare diritti umani e digitali, come EDRi – European Digital Rights che ha lanciato una Iniziativa dei cittadini europei (ECI, che potete visionare e firmare qui)  frutto del lavoro di 44 organizzazioni della società civile che chiedono il divieto della sorveglianza biometrica di massa alla Commissione e agli Stati membri dell’UE. Nello specifico, si chiede che tecnologie quali l’uso diffuso della sorveglianza biometrica, del profiling e della previsione, siano completamente vietate sia nella legge che nella pratica, in quanto violano la legge europea sulla protezione dei dati, il GDPR e il LED e limitano indebitamente i diritti delle persone. 

Un altro movimento europeo – di cui ha parlato ampiamente Laura Carrer nell’intervista – è ReclaimYourFace, che lancia l’allarme sull’impatto che il collezionamento dei dati personali negli spazi pubblici ha sulle nostre libertà. Sul sito ufficiale, dove è possibile firmare l’ECI Reclaim your face, tra i vari approfondimenti, c’è una sezione che riguarda lo stato del nostro paese: “In Italia, l’uso di tecnologie biometriche e di riconoscimento facciale è già diffuso su due diversi livelli: a quello nazionale e a quello comunale. Il sistema SARI acquisito dalla polizia scientifica si è rivelato subito controverso e coperto da un velo di estrema segretezza. A livello locale, invece, il distopico esperimento nella città di Como è stato fermato da un provvedimento del Garante per la protezione dei dati personali grazie anche a una tempestiva inchiesta giornalistica – con il contributo dell’Hermes Center – che ha sottolineato l’importanza di una maggiore trasparenza sui processi decisionali che stanno dietro all’installazione di tecnologie di riconoscimento biometrico. Eppure, altre città hanno già annunciato l’installazione di tecnologie simili, come Torino e Udine.”

Non accettiamo che nelle piazze che viviamo nel nostro quotidiano ci venga rubata la nostra identità, perché vogliamo tutelare la nostra libertà dall’invasiva sorveglianza nello spazio pubblico, l’unico luogo tangibile e umano che ci resta da attraversare, in cui scambiare idee e manifestare il proprio dissenso. Anche perché la domanda a cui non possiamo rispondere spaventa e non poco: dove finiscono questi dati e come potrebbero essere utilizzati? 

Il caso dell’identificazione dei migranti che sbarcano sulle nostre coste è emblematico: i loro dati biometrici finiscono nel database AFIS che colleziona i dati di tutti coloro che hanno commesso crimini in Italia. Perché? Per il reato di immigrazione clandestina, ignoto per la stragrande maggioranza dei migranti. Laura Carrer in questo video ci racconta quali sono i rischi etici, oltre che penali, che queste persone neanche sanno di affrontare, poiché inconsapevoli di essere dentro quel database che macchierà la loro fedina penale per sempre.

Identificazione, dati e schedatura dei migranti - Laura Carrer