Di seguito una sintesi dell’intervento di Alberto Romele dell’Université Sorbonne Nouvelle durante il workshop Responsibility and AI: Philosophy and Governance of Innovation tenutosi il 14 novembre presso la nostra Fondazione e organizzato da PhilTech, il gruppo di ricerca dell’università milanese che esplora la tecnologia con sguardo filosofico e un approccio orientato a etica e valori sociali. Tra gli altri relatori, Federico Faroldi (Università di Pavia), Nicola Liberati (Shanghai Jiao Tong University), e il segretario generale di Fondazione Bassetti, Francesco Samorè. In coda al testo l’elenco degli altri interventi pubblicati.
Immagini e immaginari dell’intelligenza artificiale
Quale è responsabilità di coloro che comunicano e discutono attorno all’intelligenza artificiale quando si parla di “etica dell’intelligenza artificiale”? È questa la domanda che sottende lo studio di Alberto Romele sull’etica della comunicazione scientifica attorno all’intelligenza artificiale. Il suo punto di partenza, dice: «è l’idea che l’IA sia molto di più della somma delle sue parti materiali. Non un semplice oggetto tecnico quindi, bensì una serie di “condizioni di possibilità” sia di ordine tecnico-scientifico (riferendosi in questo caso all’infrastruttura tecnica e materiale che comprende dai cloud di big data ai sottomarini satelliti); sia di ordine istituzionale (dai sistemi normativi nei diversi Paesi alle tensioni geopolitiche globali) che sociale, considerato che ogni intelligenza artificiale è applicata a specifici contesti con una specifica etica. Determinanti anche le condizioni di possibilità di ordine culturale, perché se oggi l’intelligenza artificiale “funziona”, non è solo per ragioni tecniche, ma perché esiste una sorta di credenza generale sulla sua utilità in diversi contesti. Esiste cioè una sorta di circolarità ermeneutica tra quello che l’IA può fare e fa, e quello che noi crediamo che possa fare».
se oggi l’intelligenza artificiale “funziona”, non è solo per ragioni tecniche, ma perché esiste una sorta di credenza generale sulla sua utilità in diversi contesti
L’approccio sviluppato da Romele è quello di un’ermeneutica digitale adottata in tre sensi principali: in primis per designare la circolarità tra gli aspetti materiali della tecnologia e la sua dimensione simbolica (qui una citazione è fatta al lavoro, nell’ambito dei Science and Technology Studies, di Patrice Flichy e Sheila Jasanoff, a sostengo della tesi che la dimensione simbolica non sia semplicemente estetica, ma centrale nei processi di innovazione); in secondo luogo per focalizzarsi sia sulle produzioni culturali sull’intelligenza artificiale, che su quelle prodotte dall’intelligenza artificiale, come le immagini; e infine per, come affermava il filosofo Paul Ricoeur, “spiegare di più per comprendere meglio”.
L’intento è quello di sviluppare una sorta di approccio misto, composto da metodi qualitativi e quantitativi, teorici ed empirici, per analizzare queste manifestazioni culturali, per cui appaiono di fondamentale importanza le cosiddette micro-narrative sociotecniche dell’intelligenza artificiale. Romele le definisce come tutti i testi o le immagini, intere o frammentate, che cristallizzano una visione sociotecnica, una credenza o un’aspettativa riguardo una nuova tecnologia. Troviamo micro-narrative nei film che nella letteratura, ma anche nei documenti ufficiali, negli articoli dei quotidiani o scientifici, e la loro funzione può essere sia ideologica, nel mantenere e favorire un’utopia, sia di sovvertimento dello status quo. La definizione di Romele sposa quella data da Massimiano Bucchi e Brian Trench nel loro Routledge Handbook of Public Communication of Science and Technology: non bisogna infatti pensare che la comunicazione intorno alla scienza sia solamente prodotta da ricercatori o divulgatori: ogni tipo di contenuto generato da una società, artistico o popolare, scritto o commentato sui social network, può far parte della comunicazione scientifica, che assume così un’accezione molto ampia.
Le cosiddette micro-narrative sociotecniche dell’intelligenza artificiale Romele le definisce come tutti i testi o le immagini, intere o frammentate, che cristallizzano una visione sociotecnica, una credenza o un’aspettativa riguardo una nuova tecnologia
Micro-narrative sociotecniche così concepite favoriscono anche una comprensione dinamica e frammentata dei così detti “immaginari sociotecnici”, in contrasto con la definizione più canonica che si rintraccia nell’introduzione del libro Dreamscapes of Modernity di Jasanoff, focalizzata principalmente su documenti ufficiali con immaginari stabilizzati istituzionalmente. Secondo Romele, invece, gli “immaginari sociotecnici” si incarnano in una pletora di micro-narrative non stabili, proposte da avanguardie artistiche, da diverse comunità e gruppi sociali, e che riflettono ciò che è desiderabile, ma soprattutto le nostre paure. Micro-narrative che, infine, integrano utilmente la prospettiva agonistica ispirata al pensiero della francese Chantal Mouffe, che suggerisce come le stesse siano sia istituite che istituenti, ovvero fungano sia da forze di unificazione della società e soprattutto di mantenimento dello status quo, sia da forze capaci di rinnovare la società stessa e i suoi sistemi simbolici, aiutando a comprendere la lotta simbolica in corso per affermare un dominio, sui processi di innovazione, culturale, ideologico e materiale.
Pur essendo le micro-narrative sociotecniche parte integrante dell’intelligenza artificiale, quando si parla di etica dell’intelligenza artificiale, il tema della comunicazione è però escluso sistematicamente. Lo stesso libro Oxford Handbook of Ethics of AI, propone una copertina non solo inefficace dal punto di vista estetico, ma foriera di problemi ontologici ed etico-politici: quale comprensione può dare dell’intelligenza artificiale a un pubblico non esperto, o esperto, una simile immagine, la scelta, in definitiva, di questa micro-narrativa? Le società tecniche, secondo Romele, hanno bisogno di una dimensione simbolica per esistere, le cui questioni etiche e politiche devono essere affrontate anche da chi si occupa di etica dell’intelligenza artificiale e dei suoi ambiti di innovazione.
Le società tecniche hanno bisogno di una dimensione simbolica per esistere, le cui questioni etiche e politiche devono essere affrontate anche da chi si occupa di etica dell’intelligenza artificiale e dei suoi ambiti di innovazione
Uno dei casi studiati da Romele riguarda l’uso in otto grandi quotidiani europei e 117 articoli, dell’espressione “etica dell’intelligenza artificiale”, un’espressione che lo studioso dell’Université Sorbonne Nouvelle considera un “significante flottante” (qui la pubblicazione), concetto introdotto da Ernesto Laclau e riferito a un insieme di termini e concetti che sono sufficientemente polisemici per essere interpretati, compresi, e usati strategicamente, in diverse modi da gruppi sociali per scopi egemonici. Dietro la diversità dei discorsi sull’etica dell’intelligenza artificiale ci sarebbe quindi una vera e propria lotta simbolica per l’egemonia di uno di questi concetti. Il risultato dell’analisi critica della narrazione emersa dagli articoli è l’identificazione in tre gruppi con visioni specifiche e diverse su cosa sia l’etica dell’intelligenza artificiale e di come questa debba essere applicata. Nell’ambito istituzionale emerge un approccio principalmente normativo; in quello aziendale si rileva soprattutto una dimensione tecno-soluzionista; e da parte dei ricercatori è forte la critica nei confronti delle imprese. Tre diversi approcci sull’idea di etica dell’AI che si riflettono in altrettanti approcci nella sua implementazione. Chi vincerà questa lotta egemonica sarà anche in grado di definire cosa sarà eticamente accettabile nell’ambito dell’intelligenza artificiale.
Considerazioni simili anche per le micro-narrative generate da immagini, che costituiscono l’oggetto di un altro studio di Romele effettuato su dieci mila immagini provenienti da Shutterstock e classificate con l’aiuto di un algoritmo. Quando digitiamo “intelligenza artificiale” su un motore di ricerca, si ottengono immagini che pongono questioni sia di ordine ontologico, rivelando la quasi impossibilità di rappresentare visualmente l’intelligenza artificiale; sia di ordine politico, poiché esse esercitano una sorta di effetto anestetico sul dibattito possibile attorno a essa. Il colore blu dominante, per esempio, crea una sorta di tranquillità che, invece di sollecitare riflessione o dibattiti, in qualche misura li calmano, accentuando la separazione tra esperti e non esperti. La soluzione, secondo Romele, non sta nel creare immagini più trasparenti o realistiche, semmai nel promuovere immagini di tipo agonistico, immagini cioè capaci di provocare un dibattito. Una possibilità, ancora inesplorata, di conferire questo approccio agonistico, potrebbe arrivare dai cosiddetti “meme” che parlano di intelligenza artificiale: dopo aver classificato due mila meme secondo quattro categorie (apocalittica, ironica, educativa, economica), la domanda è se queste produzioni non siano in grado di decostruire dall’interno e dal basso il dibattito attuale attorno all’intelligenza artificiale.
Segui i link per approfondire gli altri interventi:
– Le cose sono di due mani, alcune in poter nostro, altre no. Delega e responsabilità di fronte all’intelligenza artificiale di Francesco Samorè
– Responsible Innovation in a Startups: Integrating Moral Reflexivity into Practice, Marco Innocenti
– Intention and Responsibility of Al Agents di Federico L. G. Faroldi