UE pronta a bloccare il Riconoscimento Facciale

Si dice che il progresso e la tecnologia siano impossibili da fermare: due elementi collegati da un rapporto di dipendenza e correlazione, per il quale uno non può più esistere senza l’altro.
Il progresso e la tecnologia si evolvono costantemente e in modo repentino, spesso anche molto più rapidamente della regolamentazione dell’uomo. La tecnologia progredisce in funzione delle necessità delle persone, ma si configurano necessarie delle linee guida comuni sull’uso e la regolamentazione di queste innovazioni, allo scopo di tutelare i cittadini da possibili attacchi o limitazioni della propria libertà.
È proprio questo il caso dei software di riconoscimento facciale: una tecnologia che è avanzata velocemente e che ha di fatto colto l’Unione Europea impreparata, almeno per quel che riguarda l’applicazione nei luoghi pubblici.

Un esempio è il software di riconoscimento facciale Clearview AI, nato da una startup americana e che è già in utilizzo presso l’FBI. Il software è probabilmente il più potente in circolazione, in grado di riconoscere un volto e confrontarlo con un database con più di 3 miliardi di contenuti fotografici ripresi da social network e siti pubblici, vantando un riscontro preciso al 99,6%.
La notizia dell’uso di Clearview AI è arrivata proprio mentre in Europa si stava dibattendo sul tema della sicurezza e dell’utilizzo di software analoghi nella videosorveglianza in luoghi pubblici. Secondo le indiscrezioni presenti nel documento della commissione e riportate da Reuters e Politico.com, l’UE sarebbe intenzionata a bloccare l’utilizzo di tali tecnologie per un periodo che andrebbe dai 3 ai 5 anni, prendendo tempo per approfondire il tema e valutare rischi e potenzialità con l’obiettivo di realizzare una normativa specifica. I progetti di sicurezza e quelli per la ricerca e lo sviluppo rappresenterebbero invece un’eccezione alla norma, considerabili come casi speciali. Il documento in questione dovrà essere sottoposto al vaglio della commissione per la decisione finale dal commissario europeo per l'Antitrust, Margareth Vestager, entro la fine del mese in corso. 

Nel frattempo, il tema del riconoscimento facciale negli spazi pubblici continua a far discutere e a causare proteste anche tra i cittadini. Il caso più recente è avvenuto negli scorsi giorni nel Regno Unito: Martedì 12 Febbraio, la Polizia Metropolitana di Londra ha eseguito un test utilizzando un software di riconoscimento facciale nel sistema di videosorveglianza pubblica dello Stratford Centre nella zona est di Londra.
L’evento ha portato ad una protesta da parte di "Big Brother Watch", manifestando contro l’utilizzo del riconoscimento facciale in luoghi pubblici e contro l’utilizzo di software in grado di scannerizzare automaticamente i volti dei passanti e determinare la loro identità.
La polizia metropolitana si è invece dichiarata soddisfatta del test eseguito, specificando che non sono scattati allarmi e non si è verificato nessun tipo di errore. Il test è stato giustificato come una misura contro la criminalità, affermando che il volto di ogni passante è stato scannerizzato e confrontato con una lista di 5.000 profili biometrici di persone ricercate per gravi reati.

Le polemiche sul tema non sono però terminate qui. Recentemente, è stata scatenata nuovamente la discussione dopo che una nota presente nell’IntraNet del parlamento e letta dal The Guardian, introduceva la possibilità di utilizzare le tecnologie sopracitate nel contesto della sicurezza e dei servizi biometrici per i deputati europei. La nota è stata subito dopo cancellata e un intervento da parte del parlamento europeo ha ribadito l’intenzione di non introdurre il sistema di riconoscimento facciale.

Sicuramente, il riconoscimento facciale in luoghi pubblici rappresenta un tema delicato che deve essere necessariamente discusso, affrontato e regolamentato in modo chiaro dall’Unione Europea e recepito dai singoli stati. I vantaggi offerti sono sicuramente importanti in ottica della lotta contro la criminalità e il terrorismo, ma i rischi legati alla violazione della privacy e delle libertà individuali non sono comunque da sottovalutare. La tecnologia non ha un’anima, non è né buona né cattiva: è il modo in cui viene utilizzata a fare la differenza.



Fonti: Ansa, Wired, Ansa, The Guardian, The Guardian, The Guardian