Perché l’Europa vuole mettere al bando il riconoscimento facciale

Dopo i casi di San Francisco e altre città statunitensi, adesso è la Commissione europea a considerare la messa al bando del riconoscimento facciale. La proposta, contenuta nella bozza di un white paper sull’intelligenza artificiale, prevede che “l’uso delle tecnologie di riconoscimento facciale da parte di attori pubblici o privati venga proibito per un determinato lasso di tempo (per esempio 3-5 anni), durante i quali dovrebbe essere identificata e sviluppata una solida metodologia per valutare gli impatti di questa tecnologia e le possibili misure di gestione del rischio”.

La notizia – pubblicata per prima da Euractiv, che ha avuto accesso alla bozza stilata dalla Commissione Europea – rappresenta un passo avanti importante ma non inaspettato. Come già avvenuto nel campo della protezione dei dati con il Gdpr, l’Unione Europea è infatti all’avanguardia anche nello sviluppo di linee guida che garantiscano l’affidabilità ed eticità dell’intelligenza artificiale.

Ed è proprio in questo quadro che si inserisce la proposta di messa al bando temporanea del riconoscimento facciale, che potrebbe peraltro mandare all’aria i piani di alcune nazioni europee. La Germania, per esempio, è intenzionata a utilizzare il riconoscimento facciale a scopi di sicurezza in 134 stazioni e 14 aeroporti; mentre la polizia britannica ha da poco concluso una serie di sperimentazioni sulle strade di Londra.

I rischi del riconoscimento facciale

Ma quali sono le preoccupazioni a causa delle quali il riconoscimento facciale è diventato l’acerrimo nemico delle associazioni in difesa dei diritti civili, a partire dalla statunitense Aclu (American Civil Liberties Union, uno dei maggiori gruppi in difesa delle libertà individuali del mondo)? In generale, il timore è che questa tecnologia – che se incorporata nelle telecamere di sorveglianza permette di confrontare le persone riprese nei video con quelle contenute nei database delle forze dell’ordine – possa portare a una sorveglianza di massa sui cittadini, monitorandoli costantemente nelle loro pratiche quotidiane e prefigurando una grave invasione della nostra sfera privata.

Come segnalato proprio dalla Aclu, “la crescente presenza di videocamere potrebbe causare cambiamenti sottili ma profondi nel modo di vivere gli spazi pubblici. Quando i cittadini vengono osservati dalle autorità – o sono consapevoli che potrebbero esserlo in qualunque momento – diventano meno liberi di fare ciò che vogliono. Sapere di essere osservati mette un freno ai nostri comportamenti. Stiamo molto più attenti a fare qualcosa che potrebbe offendere o richiamare l’attenzione di chi ci sta osservando”.

Tutto questo, ovviamente, vale a maggior ragione se le videocamere sono dotate di riconoscimento facciale. Non è tutto: in passato questa tecnologia ha infatti dimostrato di essere ben poco affidabile e accurata, soprattutto quando deve riconoscere persone appartenenti alle minoranze etniche che vivono negli Stati Uniti e in Europa. Un problema noto come pregiudizio dell’algoritmo. Nel caso del riconoscimento facciale, gli algoritmi vengono infatti addestrati utilizzando banche dati di fotografie in cui sono presenti in larga parte uomini e donne bianche e quindi non sviluppano adeguatamente la capacità di riconoscere le minoranze etniche, con il rischio di commettere errori (che possono poi condurre a soprusi) proprio su quella parte di popolazione che già è sottoposta a maggiore pressione.

È per tutte queste ragioni – da quelle contingenti a quelle invece di carattere più generale – che l’utilizzo del riconoscimento facciale è guardato con molta preoccupazione non solo dagli attivisti per i diritti civili, ma anche da alcune amministrazioni. Il garante della privacy svedese ha per esempio multato di 20mila euro un comune che impiegava questa tecnologia per monitorare gli studenti all’interno delle scuole; mentre la commissione francese per la tutela dei dati personali ha affermato che il riconoscimento facciale viola il Gdpr.

Proprio questo aspetto è stato ripreso anche nella bozza stilata dalla Commissione Europea (la cui versione definitiva dovrebbe essere pubblicata a fine febbraio), in cui si sottolinea come tra le norme del GDPR ci sia il “diritto dei cittadini a non essere sottoposti a decisioni prese esclusivamente attraverso dei processi automatici, inclusa la profilazione”.

L’intelligenza artificiale etica

La questione del riconoscimento facciale è comunque solo uno dei tanti temi trattati nel documento, che nel complesso rappresenta un ulteriore passo avanti verso la regolamentazione degli aspetti più critici dell’intelligenza artificiale. Tra le proposte, si trova infatti anche la possibilità di fornire una sorta di etichetta di garanzia agli strumenti di intelligenza artificiale che rispettano determinati parametri (in termini di privacy e non solo).

Altre norme propongono invece di rendere legalmente vincolanti solo le applicazioni dell’intelligenza artificiale impiegate in situazioni in cui “il pubblico sarebbe in pericolo o in cui sarebbero in gioco importanti interessi legali” o di chiarire le situazioni in cui eventuali responsabilità ricadono sugli sviluppatori degli algoritmi di intelligenza artificiale e quelle in cui ricadono invece sui produttori degli strumenti che ne fanno uso.

Si dovrà attendere ancora un po’ prima di avere il quadro complessivo di come la Commissione europea voglia concretizzare la sua visione di intelligenza artificiale etica e affidabile. Ma una cosa è certa: in una fase in cui algoritmi di deep learning vengono impiegati per selezionare quale candidato assumere per un posto di lavoro, a chi erogare il mutuo o il sussidio di disoccupazione e quale carcerato potrà uscire di prigione, la decisione dell’Europa di porsi in prima linea per assicurarsi che questi algoritmi rispettino criteri ben precisi è un traguardo importante.

(Andrea Daniele Signorelli, Wired cc by nc nd)

Immagine Kaique Rocha
modificata da BuongiornoSl.

Be the first to comment

Rispondi

Contenuto non disponibile
Consenti i cookie cliccando su "Accetto" nel banner a fondo pagina"

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.