Con questa intervista Fondazione Giannino Bassetti inaugura una serie di dialoghi su Responsabilità e Intelligenza Artificiale. Primo ospite, Guido Boella, classe 1969, vicerettore per la promozione dei rapporti con le aziende e le associazioni di categoria per l’innovazione dell’Università di Torino e cofondatore della Società Italiana per l’Etica dell’Intelligenza Artificiale – SIpEIA – nata per diffondere la riflessione sull’etica e le scelte normative circa l’intelligenza artificiale e il coordinamento delle attività accademiche, scientifiche e culturali connesse alla tematica. La sua attività di ricerca riguarda i campi dell’intelligenza artificiale, dell’informatica giuridica, della geo informatica e della blockchain. Ha realizzato software come il social network FirstLife e la wallet app blockchain Commonshood, partecipato a progetti di trasferimento tecnologico verso le imprese, fondato lo spinoff universitario Nomotika. È vicepresidente del Competence Center CIM4, coordinatore di vari progetti regionali ed europei (ICT4LAW, EUCases, CANP, WeGovNow, Cocity, CO3, PININ), e del dottorato internazionale in Law, Science and Technology LASTJD. Coordina l’European Digital Innovation Hub Circular Health – EDIH – che supporta la digitalizzazione di SME e PA nei settori salute e agrifood e coordina il progetto di public engagement AI Aware finanziato dall’Università di Torino per sensibilizzare riguardo ai rischi e le opportunità dell’Intelligenza Artificiale.
- Fondazione Giannino Bassetti nasce trent’anni fa per promuovere responsabilità nell’innovazione. Oggi, parlando di intelligenza artificiale, i termini etica e responsabilità sono all’ordine del giorno, ma cosa significa, nella postura intellettuale, nella programmazione e nei processi produttivi, essere responsabili e avere un approccio etico oggi?
Per quanto riguarda l’intelligenza artificiale, il tema è ancora troppo nuovo e, in assenza di teorie definite, agire secondo etica e responsabilità non può significare avere un approccio deontologico o fissare rigide regole da seguire, bensì partire da principi. Anche ricercare analogie di ciò che sta avvenendo con le grandi rivoluzioni tecnologiche del passato, sembra poco efficace. Rispetto alla bomba atomica o all’avvento delle biotecnologie, per esempio, l’Ia è molto più pervasiva. Se mai, visto l’impatto che avrà su tutti i campi del sapere, su vita quotidiana e mondo del lavoro, è forse più assimilabile all’invenzione della stampa a caratteri mobili, a seguito della quale per esempio, nacquero le prime norme sul diritto d’autore (copyright). Anche in questo caso, tuttavia, l’analogia è parzialmente corretta, poiché la stampa a caratteri mobili era all’epoca una tecnologia a portata di molti artigiani, e quindi una tecnologia “democratica”, mentre l’Ia si sta addirittura allontanando dal mondo della ricerca pubblica. La verità è che con l’introduzione dell’Ia non possiamo pensare che valgano le stesse regole etiche come le concepiamo oggi. L’Ia cambia il perno dell’etica, necessita di un’etica “in divenire”. Questo è già successo negli anni Settanta con l’avvento delle biotecnologie o con le moderne tecnologie CRISPR che consentono l’editing del genoma, tecnologie che hanno portato allo sviluppo della bioetica. Ma anche in questo caso, poiché sono diversi, o meglio infinitamente più numerosi, coloro che si trovano all’ultimo anello della catena decisionale (non più il medico di fronte al paziente o il ricercatore in laboratorio, ma milioni di programmatori che di questa tecnologia spesso vedono solo un pezzetto), l’analogia stride.
- Per loro stessa natura, come ama ricordare Piero Bassetti, presidente della nostra Fondazione, le innovazioni e conseguenti applicazioni nascono al di fuori delle norme del legislatore. Quest’ultime arrivano necessariamente, e forse anche fortunatamente, dopo. Nel caso dell’Ia, la regolamentazione è però presentata più che mai urgente e necessaria. Per quale motivo a suo parere?
Adeguare il quadro giuridico è necessario anche se più complicato del passato. Nonostante l’egregio lavoro dell’Unione Europea, la comparsa dell’Ia generativa ha di nuovo cambiato le carte in tavola. Il ritmo del cambiamento dell’Ia è impressionante e complica un lavoro che non può essere che sovranazionale, e che pure è necessario. Un altro problema consiste nel fatto che le grandi corporation puntano a un’autoregolamentazione, finendo così con influire su un legislatore spesso meno informato e competente. Quando Sam Altman, fondatore di OpenAI, ha fatto il giro del mondo per promuovere l’Ia generativa, parallelamente suggeriva ai legislatori di tutti i Paesi di considerare loro, i “tecnici”, come interlocutori esperti per la regolamentazione dell’Ia. Ma delegare la regolamentazione ai grandi player solo per il fatto che “ne sanno di più”, è pericoloso. Approcci a prima vista sensati e ragionati come quello proposto da Altman, per esempio, con autorizzazioni e licenze rilasciate dai diversi stati, in realtà hanno come conseguenza di escludere dall’Ia tutto il mondo open source dotato di molte meno risorse. E ancora, l’autoregolamentazione mostra i suoi limiti anche quando si dimostra indifferente alle legislazioni nazionali. Succede già quotidianamente, quando i termini di servizio di alcuni social media determinano cosa può o non può essere pubblicato indipendentemente dalle regole del Paese in cui si trovano, e potrebbe succedere anche per l’Ia se si cederà potere regolatorio alle Big Tech.
- Lei ha evidenziato come la stessa narrazione fatta sull’Ia a livello globale sia ingannevole, impedendo di capirne in profondità il vero valore e potere. Crede davvero che dietro questo storytelling ci siano le solite mega corporation capaci di manipolare il nostro pensiero?
Sì. Oggi un articolo sul The l’Atlantic evidenziava come i grandi player siano sempre più concentrati nelle mani di pochi. Decine di miliardi di dollari investiti da una manciata di aziende (Google, OpenAI, Microsoft, ANTHROP\C) che vorranno certo avere un ritorno in termini economici. Qualsiasi affermazione pubblica delle Big Tech è passata al vaglio di uffici marketing, legali, esperti di retorica… sono loro a stabilire quale come deve essere la visione del mondo condivisa e a influenzare mercato e policymaker. L’esempio più lampante è l’open-letter del Future of Life Institute in cui Elon Musk scrive: “Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us?” (“Dovremmo sviluppare menti non umane che potrebbero essere alla fine più numerose, più astute, obsolete e che potrebbero sostituirci?”). Ma mentre si grida al “grande pericolo”, in verità si sta cancellando dal discorso pubblico i rischi che già esistono. Un recente articolo di AlgorithmWatch fa un’analisi dei meccanismi di applicazione di 160 linee guida etiche che dovrebbero governare l’Ia e quello che emerge è che nella maggior parte dei casi si tratta di ethical washing, che siamo di fronte a “tigri di carta”. Dovremmo maturare la consapevolezza che la questione della regolamentazione dell’Ia è risolvibile solo a livello politico o nella società; solo in casi estremi, come successe nel 2018 con la rivolta dei dipendenti di Google contro la decisione di Alphabet di mettere a disposizione del Pentagono l’Ia per scopi militari, i dipendenti della Big Tech osarono andare contro il business dei loro datori di lavoro. Si tratta di un confronto al vertice tra le big corporation e i policy maker a cui non ci si può sottrarre.
- A livello di struttura tecnologica, dove l’Ia è poco trasparente, poco etica, poco leale nei confronti dei contesti sui quali impatta?
Emily Bender, Timnit Gebru, Margaret Mitchell e Angelina McMillan-Major nel loro articolo sui “pappagalli stocastici”, nella sezione Unfathomable Training Data, spiegano bene come i data set su cui sono addestrati ChatGPT e gli altri Large Language Model siano ormai talmente grandi che anche se li rendessimo più trasparenti non otterremmo il risultato sperato. L’opacità è insita nella tecnologia stessa dell’Ia, aumentata dal fatto che le Big Tech si nascondono dietro diritto e proprietà intellettuale pur di non svelare come lavorano… Si tratta di limiti strutturali non risolvibili tecnologicamente e di cui bisognerà valutare costi e opportunità nell’utilizzo dei sistemi Ia, decisione che dovrebbe spettare alla politica, e quindi dipendere da una presa di coscienza comune attraverso un dibattito pubblico. Ecco perché, come Società Italiana per l’Etica dell’Intelligenza Artificiale, all’interno dei progetti di Public Engagement dell’Università di Torino, abbiamo avviato AI AWARE, organizzando fra le altre cose una serie di incontri al Circolo dei Lettori di Torino, molto partecipati, in cui si parla e si discute di cosa sta succedendo con l’Ia.
- Lei coordina l’European Digital Innovation Hub Circular Health EDIH che supporta la digitalizzazione di SME e PA nei settori salute e agrifood. Le interconnessioni con medicina e sanità sono molte e aprono anche interrogativi importanti… Quali sono le questioni più urgenti?
Gli aspetti più delicati riguardanti l’introduzione dell’Ia in ambito medico riguardano i bias che emergono nei sistemi di diagnosi Ia e la difficoltà di questi sistemi nel fornire spiegazioni riguardo al ragionamento che li ha portati a diagnosticare una certa patologia. Entrambi i problemi sono dovuti all’utilizzo di algoritmi di machine learning, che costituiscono delle black box troppo grandi per essere studiate (sono composte da trilioni di neuroni artificiali) su dati che rappresentano l’esistente (per esempio, esistono moltissimi referti medici di persone bianche anglosassoni e pochi per le diverse minoranze che hanno meno copertura dall’assicurazione sanitaria negli USA). Di entrambi i problemi non sappiamo se esiste una soluzione puramente tecnologica. Inoltre, c’è il problema di chi sia la responsabilità nel caso in cui l’opinione di un medico su un paziente sia diversa da quella di un sistema Ia da lui utilizzato.
- E infine, seguendo lei i rapporti con le imprese e le associazioni di categoria per il coordinamento con le iniziative di innovazione industriale sul territorio, a che punto è l’adozione dell’Ia nelle imprese italiane?
Secondo un recente studio di Deloitte, “la maggior parte delle aziende Italiane (il 59 per cento) è caratterizzata da un basso numero di soluzioni Ia in produzione (da 1 a 2) e utilizzano l’Ia da meno di un anno”, quindi, siamo molto indietro. Il problema però non è solo il grado di adozione, ma anche il livello di competenze dei dipendenti e soprattutto quali tecnologie verranno utilizzate: con il recente boom dell’Ia generativa si rischia che le aziende Italiane diventino sempre più dipendenti da poche Big Tech. Circular Health EDIH è un polo di innovazione digitale che ha proprio come scopo quello di facilitare la transizione digitale e verde delle PMI e della PA fornendo servizi a prezzi agevolati o gratuiti per supportare l’introduzione di tecnologie Ia, formazione su competenze digitali avanzate e aiuto a trovare finanziamenti per investire sull’Ia. Stesso scopo ha il gemello Public Administration Intelligence EDIH, che seguo da vicino, e che ha come capofila Insiel e focus sui servizi pubblici erogati dalle PA e dalle organizzazioni dell’economia sociale alla luce della riforma del terzo settore.