Di seguito una sintesi dell’intervento di Marco Innocenti durante il workshop Responsibility and AI: Philosophy and Governance of Innovation tenutosi il 14 novembre presso la nostra Fondazione organizzato da PhilTech, gruppo di ricerca dell’università milanese che esplora la tecnologia con sguardo filosofico e un approccio orientato a etica e valori sociali. Tra i relatori, Federico Faroldi (Università di Pavia), Nicola Liberati (Shanghai Jiao Tong University), Alberto Romele (Université Sorbonne Nouvelle) e il segretario generale di Fondazione Bassetti, Francesco Samorè. In coda al testo l’elenco degli altri interventi pubblicati.
Responsible Innovation in A Startups: Integrating Moral Reflexivity into Practice – La responsabilità degli innovatori
Come la responsabilità nell’innovazione può entrare nella pratica di chi l’innovazione la pensa e la integra nella produzione di una nuova tecnologia? Come applicare l’innovazione responsabile alle startup? Se si interpreta l’intelligenza artificiale come un’innovazione industriale, si rileva come sia la più rapida tra tutte le altre rivoluzioni, concedendo meno tempo per riflettere sulle possibili conseguenze su tutti gli attori e su tutti i diversi settori impegnati nella sua adozione. L’intelligenza artificiale è quindi un’innovazione che produce altre nuove innovazioni innescando, citando Joseph Schumpeter, un innovation cycle che porta con sé una creatività distruttiva. La difficoltà indotta dall’irruzione dell’intelligenza artificiale non risiede solo nella velocità con cui sta avendo corso, ma anche nel fatto che per la sua adozione spesso le grandi aziende, Big Tech comprese, si appoggiano a startup con un sistema produttivo più flessibile, ma con meno risorse da utilizzare per le sfide etiche. A differenza di ciò che avviene in Cina, dove è lo Stato a supportare lo sviluppo di questa tecnologia in velocità, o negli Stati Uniti, dove è ancora valido il motto coniato da Mark Zuckerberg nel 2014 all’interno di Facebook “Move fast and break things”, l’Europa, attraverso la sua Commissione, dà indicazioni per lo sviluppo di un’intelligenza artificiale riflessiva. Un suggerimento di come possiamo inserirla nelle startup arriva dalla proposta Marc Ryan. Il Digital Ethics Researcher presso il Wageningen Economic Research propone di utilizzare, all’interno della startup, un approccio proattivo con doveri positivi, anziché una misura quantitativa che si rivelerebbe poco efficace considerati i numeri ristretti dello team della stessa. Si tratta di adottare la prospettiva di un’etica della virtù più calata quindi sull’innovatore, in genere esposto e coinvolto in prima persona. A differenza di altri indirizzi della filosofia morale come quello deontologico quello consequenzialista, l’etica della virtù non si appoggia quindi sugli effetti della tecnologia, in molti casi invisibili, o su principi morali calati in ambiti specifici, ma prende in considerazione il sense-making, ovvero il processo di creazione di senso che, attraverso questa tecnologia, gli innovatori portano avanti.
Che tipo di responsabilità possiamo adottare per analizzare un ambiente come quello della startup? Spesso si parla di responsability gap, ovvero di una lacuna nella responsabilità che deriva dal fatto che programmatori o sviluppatori non hanno possibilità di vedere il prodotto nella sua interezza, o di prevederne il impatti. Ciò implica l’esistenza di un limite anche nella possibilità di attribuirsi una responsabilità attiva. Una risposta possibile arriva da Maximilian Kiener e la sua responsability abondance che pone la questione da una prospettiva diversa: secondo la strict moral answerability, ognuno di noi ha una responsabilità, non rispetto al controllo che può avere su una determinata cosa, bensì sul ruolo che ha all’interno del processo. Il capitano di una barca, per esempio, è responsabile per la sicurezza dei passeggeri e risponderà degli effetti di un eventuale naufragio indipendentemente dal fatto che possa o meno prevenire l’evento. Con il concetto di responsability abondance, tutti coloro che hanno partecipato al processo di creazione o adozione di un’intelligenza artificiale possono assumersi un certo tipo di responsabilità, cosa che permette di leggere la responsabilità come virtù. Virtù sia nel senso di “agisci responsabilmente”, sia nel senso, suggerito da Garrath Williams in Responsability As Virtue, di assumersi la responsabilità riconoscendo una molteplicità di responsabilità verso tutti gli ambiti su cui una tecnologia come quella dell’intelligenza artificiale impatta. Parallelamente, Preston Stovall parla di professional self awareness, ovvero della coscienza di sé in quanto professionisti, come un possibile corrispettivo della phrónesis aristotelica, la virtù pratica di Aristotele, riconoscendone però una sostanziale differenza: mentre Aristotele concepisce come un’unità l’Uomo buono e individua una sola direzione per il Bene ultimo in funzione della quale agire nella pratica, i dilemmi etici che derivano dalla molteplicità di ruoli e di responsabilità che si presentano nel caso dell’intelligenza artificiale non possono essere risolti attraverso una saggezza pratica.
È Alasdair MacIntyre a uscire dall’ambito della riflessione e del riconoscimento della molteplicità di ruoli e di insieme di valori, e invocare una sorta di ricerca narrativa, la narrative quest: è l’idea che ognuno di noi viva in diverse sfere morali, dal lavoro alla dimensione più privata, legate però da un fil rouge che può essere usato per decompartimentizzarle e ricondurre tutto a una narrazione totalizzante. La necessità morale diventa quindi una ricerca, e la phrónesis aristotelica una sorta di meta virtù. La mia proposta consiste proprio nell’applicare la narrative quest di MacIntyre nell’ambito della produzione delle tecnologie. In particolare, mi focalizzo sulla duplice responsabilità di essere, come professionisti, innovatori responsabili nei confronti di colleghi o startup, e, come esseri umani, innovatori responsabili nei confronti di società e ambiente: quello che Macintyre definisce con i termini di effectiveness ed excellence.
In particolare, mi focalizzo sulla duplice responsabilità di essere, come professionisti, innovatori responsabili nei confronti di colleghi o startup, e, come esseri umani, innovatori responsabili nei confronti di società e ambiente
La domanda conclusiva è quindi: come i membri della startup possono dare senso a questa molteplicità di responsabilità? Nella mia esperienza ho cercato di codificare i diversi modi con cui i diversi membri della startup mettono in relazione la responsabilità intesa come “efficacia” e la responsabilità intesa come “eccellenza”. All’interno di uno schema grafico si possono leggere le varie motivazioni e riflessioni emerse (per esempio, abbiamo compiuto questa scelta benché non sia una scelta etica dal punto di vista della sostenibilità, ma… l’evoluzione di questa tecnologia, da un punto di vista di efficacia, va di pari passo con quello di un’eccellenza perché accumulando più dati abbiamo la possibilità di fare del bene nei confronti dell’ambiente…), un framework che può aiutare a capire in che modo i miglioramenti dati dall’intelligenza artificiale possono contribuire al perseguimento di uno o l’altro Bene, se ledono l’una o l’altra responsabilità. La narrative quest di Macintyre si rivela quindi come uno strumento con cui poter associare le diverse responsabilità allineando le diverse obbligazioni morali, mentre si evince come la riflessività morale può essere coltivata in correlazione a un tentativo di trovare soluzioni pratiche per i dilemmi etici posti dall’adozione dell’intelligenza artificiale al di fuori della sfera della moralità.
Cambiando scala, passando dalla start up alle Big Tech, gli stessi membri della start up esprimono il timore che, in un struttura complessa, da un lato si perda di vista il risultato finale, dall’altro, la proliferazione e parcellizzazione dei ruoli porti a una più difficile presa di responsabilità all’interno del processo, con una condivisione di questa responsabilità molto più diluita. Ma un altro rischio è che dubbi e dilemmi etici diventino meno chiari al singolo individuo e meno esposti pubblicamente, rendendo più difficile l’individuazione di una soluzione che potrebbe derivare dalla discussione. C’è un ampio dibattito anche sulla possibilità effettiva di una virtù collettiva, o di una swarm intelligence, sia in termini di processo, su come questa responsabilità venga distribuita, sia in termini di virtù dell’individuo che si assume la propria dose di responsabilità senza che per questo essa risulti diluita nel gruppo. Inoltre, se molte persone agiscono sulla stessa tecnologia, in che termini possiamo codificare questa responsabilità? In molti casi, i dilemmi etici sono praticamente impossibili da sciogliere, come nel caso di alcuni quesiti posti dalle auto a guida autonoma, ma riconoscendone l’esistenza, e ponendoli all’innovatore, possono essere uno stimolo per pensare diversamente alla propria tecnologia implementata con l’intelligenza artificiale.
Segui i link per approfondire gli altri interventi:
– Le cose sono di due mani, alcune in poter nostro, altre no. Delega e responsabilità di fronte all’intelligenza artificiale di Francesco Samorè
– Digital Intimacy: Postphenomenology Seeping into Dirty Viscosity di Nicola Liberati (di prossima pubblicazione)
– Immagini e Immaginari dell’Intelligenza Artificiale di Alberto Romele (di prossima pubblicazione)
– Intention and Responsibility of Al Agents di Federico L. G. Faroldi (di prossima pubblicazione)