Intelligenza artificiale, l’Europa vuole scrivere per prima le regole del gioco

Bruxelles – Dalla teoria alla pratica. La Commissione europea mette alla prova i principi etici e i requisiti chiave per sviluppare un’intelligenza artificiale (Ai) che non danneggi l’uomo. Entro l’estate del 2020 Bruxelles vuole definire lo schema di valutazione che aziende, centri di ricerca e organizzazioni dovranno applicare ai loro progetti sull’Ai per capire se rispettano o meno le regole comunitarie. Da giugno la bozza messa nero su bianco dai 52 esperti nominati dalla Commissione europea per lavorare ai principi di un’intelligenza artificiale etica sarà disponibile per la fase di test.

L’intelligenza artificiale è la mia priorità”, ha dichiarato Andrus Ansip, vicepresidente della Commissione e responsabile per il mercato unico digitale, al terzo Digital day europeo (il vertice annuale sull’avanzamento delle politiche comunitarie sull’innovazione).

Primato politico

Come è stato nel caso del regolamento per la protezione dei dati personali (Gdpr), che in un anno è diventato uno standard mondiale, ha ispirato oltre 134 leggi simili e per l’amministratore delegato di Apple, Tim Cook, dovrebbe essere adottato anche negli Stati Uniti, l’Europa punta a fissare l’asticella delle norme globali sull’intelligenza artificiale.

Se il test darà buoni risultati, entro dodici mesi Bruxelles avrà le basi etiche e morali, più l’esperienza sul campo, per definire i parametri di un’Ai umano-centrica. Uno scatto in avanti rispetto alla concorrenza degli altri paesi. In primis Stati Uniti e Cina, le due potenze globali più forti nel settore. “Il progetto pilota non vale solo per l’Europa, ma come standard mondiale. I riscontri saranno usati per stabilire una valutazione definitva nel 2020”, ha annunciato Pekka Ala-Pietilä, presidente della commisisone di esperti.

Le sfide dell’Ai

I principi etici puntano a smarcare l’Ai dai suoi usi più controversi, come i sistemi di sorveglianza, forme di Ai sotto copertura, armi autonome. Fissano gli steccati tra usi considerati “accettabili” – per esempio nell’uso della tecnologia per individuare criminali – e applicazioni pericolose, nocive o che violano i diritti fondamentali.

Dall’intelligenza artificiale non dovremmo accettare condizioni che non accetteremmo nella vita normale”, ha evidenziato Mona Keijzer, segretario di Stato del ministero olandese dell’Economia. E ha aggiunto: “Dobbiamo allargare il discorso dalla privacy all’autonomia. Siamo ancora resposabili delle decisioni che prendiamo o dipendono da un algoritmo?”. Per Andrea Cioffi, sottosegretario del ministero italiano dello Sviluppo economico, uno dei focus dello sviluppo successivo dell’Ai dovrà essere la “difesa delle persone più fragili, come gli anziani”.

Tabella di marcia

Lo schema legislativo sull’intelligenza artificiale si basa su tre livelli. Il primo sono i quattro principi etici diffusi lo scorso dicembre: rispetto per l’autonomia umana, prevenzione dagli effetti nocivi, correttezza, possibilità di essere spiegata. In secondo luogo, il gruppo di esperti ha fissato sette requisiti chiave utili a realizzare un’Ai di cui ci si possa fidare. “Deve avere tre componenti: rispettare appieno le leggi, aderire ai principi etici ed essere solida, sia da un punto di vista tecnico sia sociale”, si legge nelle raccomandazioni degli esperti.

Per questo i progetti devono rispondere a sette standard di base: controllo umano, sicurezza tecnica, gestione dei dati, trasparenza, rispetto della diversità, benessere sociale e controllo. A corollario di queste indicazioni la commissione ha stabilito un questionario con cui un’azienda o un centro di ricerca può verificare, in pratica, se il lavoro sull’Ai rispetta le regole comunitarie. La bozza è composta da 131 domande. Da giugno enterà nella fase di test, per verificare se il documento è centrato e previene i rischi a cui potrebbe portare un’Ai senza controllo.

Al termine l’Europa si ritroverà con uno schema legale avanzato per governare l’intelligenza artificiale “nel rafforzamento tecnologico, nell’espansione della capacità industriale ma anche dal punto di vista etico”, ha spiegato Mariya Gabriel, commissaria per economia e società digitali. In modo da poter dare le carte al tavolo con le altre potenze.

Il budget della Commissione per il prossimo settennato, 2021-2027, mette sul piatto almeno 2,5 miliardi di euro per l’intelligenza artificiale. Sommando gli investimenti privati, Bruxelles conta di raggiungere una potenza di fuoco di 20 miliardi.

(Luca Zorloni, Wired cc by nc nd)

Illustr. www.vpnsrus.com

Be the first to comment

Rispondi

Contenuto non disponibile
Consenti i cookie cliccando su "Accetto" nel banner a fondo pagina"

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.