Per salutare il 2018, nel suo discorso di fine anno il Presidente della Repubblica Mattarella ha riservato considerazioni attente alla responsabilità che – oggi più che mai – i processi innovativi domandano a tutti noi:
«Occorre preparare il domani. Interpretare, e comprendere, le cose nuove. La velocità delle innovazioni è incalzante; e ci conduce in una nuova era, che già cominciamo a vivere.
Un’era che pone anche interrogativi sul rapporto tra l’uomo, lo sviluppo e la natura. […]
In questo tempo, la parola “futuro” può anche evocare incertezza e preoccupazione. Non è stato sempre così. Le scoperte scientifiche, la evoluzione della tecnica, nella storia, hanno accompagnato un’idea positiva di progresso.
I cambiamenti, tuttavia, vanno governati per evitare che possano produrre ingiustizie e creare nuove marginalità.
L’autentica missione della politica consiste, proprio, nella capacità di misurarsi con queste novità, guidando i processi di mutamento. Per rendere più giusta e sostenibile la nuova stagione che si apre».
In quali ambiti “preparare il domani” ci sembra più urgente? Nel dibattito pubblico uno dei temi più incalzanti è senza dubbio quello dell’intelligenza artificiale.
Mustafa Suleyman, co-fondatore di DeepMind, in un recente articolo pubblicato su «Wired UK» è stato molto chiaro al riguardo: «gli studi sull’etica, la sicurezza (safety) e gli impatti sociali connessi all’intelligenza artificiale rientreranno tra le aree di indagine più urgenti dei prossimi anni» e lo sviluppo di questo settore «richiede la creazione di nuovi meccanismi di decision-making che includano direttamente i cittadini».
Insieme alla Royal Society for the encouragement of Arts, Manufactures and Commerce (RSA), l’azienda acquisita da Google nel 2014 produrrà una serie di iniziative di public engagement per esplorare il campo dell’intelligenza artificiale attraverso la lente dell’etica e della responsabilità. Sull’onda di alcuni casi particolarmente controversi, come quello portato all’attenzione da ProPublica – che ha evidenziato come l’algoritmo utilizzato da una Corte della Florida per calcolare il rischio di recidiva fosse discriminatorio nei confronti degli imputati di colore – o quello dell’impiego dell’intelligenza artificiale in campagna elettorale per creare profili psicometrici a partire dai dati raccolti dai social network e creare annunci mirati per gli utenti che rispecchino la loro inclinazione politica – a questo proposito, molto discusso è stato il caso Cambridge Analytica in relazione alla Brexit – RSA guiderà alcune giurie di cittadini che approfondiranno il tema del ricorso all’AI nell’ambito giuridico e in quello del dibattito democratico.
L’obiettivo? «Riflettere su come realizzare appieno il potenziale dell’AI insieme a cittadini ed esperti senza procurare danni indebiti alla società».
Il fatto che Google proponga questo tipo di iniziative può colpire particolarmente, ma alcune esperienze in tal senso già esistono, dall’AI now Institute di New York, che studia le implicazioni sociali dell’intelligenza artificiale, alla Dichiarazione di Montreal per lo Sviluppo Responsabile dell’Intelligenza Artificiale, che prende le mosse dall’omonimo Forum e che, ancora in fase di stesura, poggerà sui risultati di una consultazione pubblica che durerà fino al prossimo marzo.
Anche nel vecchio continente non mancano le esperienze di public engagement su questi temi: in Francia Cédric Villani, matematico di fama internazionale, ha ricevuto dal governo Macron l’incarico di costruire una visione «francese ed europea» sullo sviluppo dell’intelligenza artificiale. Una visione che terrà conto degli impatti dell’AI sulla società, sul lavoro, sull’ambiente, sulla dignità della persona umana e che sarà elaborata entro la fine del prossimo gennaio a partire dai risultati di una consultazione pubblica.
Un’interessante suggestione viene anche da Londra, dove da poco tecnologi ed eticisti si sono confrontati all’Imperial College su proprio sul tema della responsabilità in ambito AI (il report si può trovare qui). Anche in questo contesto si è parlato di consultazione dei cittadini su AI e sue applicazioni, con una riflessione di Reema Patel (Programme Manager alla the Royal Society for the Encouragement of Arts, Manufactures, and Commerce) che riteniamo interessante condividere: “Asking the public what they think isn’t just about commissioning an opinion poll. It really requires engaging with the uncertainty of the question. It really affects us all, our values, our choices, the trade-off that we make as a society. It’s so important to find new ways of engaging citizens in informed debate about the future of AI.”
E l’Italia?
In Lombardia, la nascita del Foro regionale per la ricerca e l’innovazione – i cui dieci membri sono appena stati nominati, selezionati tra più di 150 candidature da tutto il mondo – è un passo nella direzione di portare in Italia strumenti avanzati di consultazione pubblica sui temi di frontiera dell’innovazione.
————-
(photo by: Andrè Benz)