Tra il modello statunitense di un’Intelligenza Artificiale volta prevalentemente al profitto e quello cinese di sistemi intelligenti per il controllo sociale, l’Europa sta tracciando una terza via. Con molto coraggio e intelligenza il Vecchio Continente negli ultimi mesi ha gettato le fondamenta di un’IA per la società, volta a promuovere e ampliare il progresso umano.
È da questo punto di partenza, rilanciato anche lunedì 8 aprile dalla Commissaria europea per il digitale Mariya Gabriel nel presentare le linee guida per un’etica dell’intelligenza artificiale elaborate dal gruppo di 52 esperti della Commissione europea, che si è sviluppato il workshop sull’IA nei cluster regionali della Lombardia presso il Jrc di Ispra lo scorso 3 aprile.
La rete dei sei Joint Research Center europei (oltre a quella italiana ci sono sedi a Bruxelles, Geel, Karlsruhe, Petten e Siviglia) è la struttura deputata a fornire a Commissione e Parlamento le analisi tecnico scientifiche necessarie per sviluppare politiche e decisioni basate sulle evidenze scientifiche. Da tempo il Jrc lavora sul tema dell’IA come ha spiegato Stefano Nativi, ricercatore presso il centro di Ispra producendo report e analisi sia sulle evoluzioni tecnologiche che sull’impatto etico sul quale sono in corso due studi.
Il workshop, nel quale si sono confrontati rappresentanti di Regione Lombardia, del cluster fabbrica intelligente che raccoglie Università di Bergamo, Cnr, Afil e Politecnico di Milano ha permesso di evidenziare l’interesse di queste nuove tecnologie sia per la competitività delle imprese che per le pubbliche amministrazioni.
Il contributo che ho portato come advisor scientifico di Fondazione Bassetti è stato dettagliare il contesto nel quale l’Italia si sta muovendo sia sul fronte geopolitico (l’Europa è ancora prima per pubblicazioni scientifiche ma ultima per applicazioni industriali, dove sono leader gli Usa mentre la Cina si appresta a superare entrambi) che sul lavoro per la formulazione di nuovi principi etici.
Fondazione Bassetti è infatti stata uno degli attori più attivi nel contribuire alla formulazione delle 20 raccomandazioni prodotte da AI4People, un Forum indipendente e non finanziato dalla Commissione che nel 2018 ha riunito rappresentanti industriali (Facebook, Google, Huawei, Microsoft, Intel, Audi, Takeda, Johnson and Johnson) e della società civile come la European Cancer League, il BEUC e la Società europea per l’intelligenza artificiale coordinati da un gruppo di 10 esperti presieduti dal professore Luciano Floridi.
Il risultato del lavoro di AI4People, pubblicato lo scorso novembre in formato aperto, è stato messo a disposizione dei 52 esperti della Commissione e diverse parti sono state raccolte.
Di questo lavoro vanno evidenziati due risultati fondamentali. Il primo è l’aggiunta di un principio etico fondamentale a quelli già elaborati dalla bioetica (beneficenza; non nuocere; autonomia e giustizia) ovvero la “spiegabilità” intesa come la capacità e il diritto dei cittadini di sapere come i sistemi di AI funzionano e decidono. È un punto fondamentale perché questi sistemi sono già chiamati a prendere decisioni cruciali per la vita delle persone, dall’operabilità di un tumore all’approvazione di un mutuo bancario. Il secondo risultato sono le 20 raccomandazioni tra le quali ne vanno certamente evidenziate tre. La settima che prevede lo sviluppo di meccanismi di risarcimento e compensazione per i danni provocati dai sistemi intelligenti come già avviene in altri settori, per esempio l’aeronautica e la biomedicina oltre alla creazione di un’autorità europea potrebbe gestire l’audit di applicazioni inique della tecnologia. La nona che suggerisce la creazione di un’agenzia europea per la protezione del bene pubblico, in grado di valutare e supervisionare i nuovi prodotti come sistemi intelligenti, software e servizi, sulla scorta di quanto già fa in ambito biomedico l’EMA, l’Agenzia europea del farmaco. Infine la ventesima e ultima, che incoraggia gli investimenti nell’educazione, nella formazione e nella divulgazione. Ciò non significa solo insegnare ai nostri alunni a scrivere codice, un’idea molto di moda oggi, ma che potrebbe presto essere resa anacronistica dalla stessa IA, quanto piuttosto dare a nostri ragazzi gli strumenti per comprendere come dati, connettività e sistemi intelligenti funzionano e l’impatto che possono avere sulle nostre capacità o libertà.
Il workshop di Ispra è stato un primo passo in un percorso di collaborazione che certamente sarà molto articolato e che spero produrrà frutti soprattutto sul fronte della consapevolezza di imprese e cittadini delle potenzialità dell’IA. Una ricerca del Politecnico di Milano presentata da Stefano Garavaglia mostra infatti che il 64% delle imprese lombarde che hanno avviato un progetto legato all’IA dice che è un successo (dal moderato al disruptive) mentre nessuna ha ancora evidenziato aspetti negativi. Più preoccupante, e sicuramente un fronte sul quale agire con attenzione, è invece la percezione dei cittadini che rischiamo di vedere i sistemi intelligenti come una minaccia per il posto di lavoro o come un rischio, per esempio quando si parla di veicoli autonomi come ha evidenziato una recente ricerca di EY sulla mobilità in Lombardia.
@guidoromeo
—————