Il 14 novembre, presso la nostra Fondazione, si è tenuto il workshop Responsibility and AI: Philosophy and Governance of Innovation organizzato da Marco Innocenti e Roberto Redaelli dell’Università degli Studi di Milano, membri fondatori di PhilTech, gruppo di ricerca dell’università milanese che esplora la tecnologia con sguardo filosofico e un approccio orientato a etica e valori sociali. Tra i relatori, Federico Faroldi (Università di Pavia), Nicola Liberati (Shanghai Jiao Tong University), Alberto Romele (Université Sorbonne Nouvelle) e il segretario generale di Fondazione Bassetti, Francesco Samorè. Di seguito, la sintesi dell’intervento di Samorè: Le cose sono di due mani, alcune in poter nostro, altre no. Delega e responsabilità di fronte all’intelligenza artificiale a cui seguiranno altri post con un approfondimento di tutti gli interventi.
Le cose sono di due mani, alcune in poter nostro, altre no. Delega e responsabilità di fronte all’intelligenza artificiale.
di Francesco Samorè
Da trent’anni Fondazione Bassetti cerca di sfuggire al rischio dell’inanità del discutere di innovazione e, in questo caso, di sfuggire al rischio di inanità nel discutere delle implicazioni dell’intelligenza artificiale. Quella di oggi non è più, del resto, una discussione di nicchia, anzi. Il nostro presidente, Piero Bassetti, è uomo delle istituzioni, le ha attraversate e innovate, ma sempre interrogandosi sul senso del rapporto tra sapere e potere. L’aver “assistito” allo sgancio delle bombe atomiche nel 1945 è stato senza dubbio un episodio che ha segnato la sua riflessione, tanto da generare un libro come Le redini del potere, scritto nel 1959 insieme a Giacomo Corna Pellegrini per domandarsi cosa significasse, in un mondo in cui la tecnica e la tecnologia avevano dimostrato di poter incidere profondamente sulla vita, indirizzare responsabilmente l’innovazione. La Fondazione nasce molto tempo dopo, nel 1994, con questo interrogativo di fondo, al quale si legano molte delle interessanti relazioni ascoltate in questo workshop hanno punti di connessione.
Ad esempio, Alberto Romele ci ha parlato della dimensione egemonica dell’intelligenza artificiale, categoria gramsciana; e si è riferito al filosofo francese Paul Ricœur, di cui in Fondazione citiamo spesso una delle formule più pertinenti ai nostri tempi, “un’epoca in cui alla bulimia dei mezzi corrisponde l’atrofia dei fini”.
La questione della corporeità, della relazione e della materialità dell’intelligenza artificiale proposta da Nicola Liberati è altrettanto interessante, e anch’essa pone un tema profondamente politico, un tema che riguarda la responsabilità dell’intelligenza artificiale. Mi ha richiamato il seminario che abbiamo recentemente ospitato sullo spazio europeo dei dati sanitari: il dato sanitario che noi produciamo e che viene maneggiato dalle intelligenze artificiali è evidentemente un fatto che riguarda i nostri corpi, oltre che l’organizzazione sociale della salute: ieri i dati statistici riferiti a residenza, età, lavoro; oggi quelli digitali, che non si limitano a circolare o a essere commerciati, ma che potranno definire la nostra cittadinanza digitale e globale. Ancor più connesso al concetto di corporeità, e di egemonia, dell’intelligenza artificiale, è il tema della neuroetica e dei neuro-diritti. Non ci sarebbe neuroscienza senza intelligenza artificiale oggi: lo abbiamo visto con il caso Neuralink, le brain computer interfaces di Musk, che ha alimentato un dibattito mondiale su cosa significasse impiantare nel nostro cervello una tecnologia capace di interazione. Anche di questo Fondazione Bassetti ne ha parlato in un convegno in Senato, organizzato insieme alla Società italiana di neuroetica, perché è evidente che ciò che possiamo fare attraverso le neurotecnologie e l’intelligenza artificiale chiama in causa la possibilità di rivendicare una salvaguardia anche per le attività mentali e cognitive, intrecciando l’habeas corpus con l’habeas mentem.
Parliamo di un campo nel quale gli investimenti degli Stati o delle potenze regionali sono pareggiati dagli investimenti dei singoli imprenditori, capaci di generare un riflesso sul dibattito pubblico. Il che amplifica, se possibile, la citata “bulimia dei mezzi rispetto all’atrofia dei fini”, perché l’innovazione si ha quando un plus di sapere incontra un plus di potere attuativo, che sia potere capitalistico o potere politico, senza il quale si dà solo la scoperta o l’invenzione.
Dal nostro punto di osservazione è giusto quindi chiedersi che cosa significhi vivere nel “secondo Gutenberg”, ovvero in un momento storico nel quale non la mera innovazione tecnologica, ma le conseguenze di essa sulle istituzioni, sulla politica e sulle relazioni sociali debbano essere trattate responsabilmente. Su questo vale la pena tornare a Elias Canetti e al suo Massa e Potere, pubblicato nel 1960 dopo trentotto anni di elaborazione. Il libro inizia con la paura dell’individuo di essere toccato e col suo capovolgimento non appena sopraggiunge la massa: “Solo nella massa l’uomo può essere liberato dal timore di essere toccato. Essa è l’unica situazione in cui tale timore si capovolge nel suo opposto…. Dal momento in cui ci abbandoniamo alla massa, non temiamo d’esserne toccati. Nel caso migliore, si è tutti uguali. Le differenze non contano più, neppure quella di sesso. Chiunque ci venga addosso è uguale a noi. Lo sentiamo come ci sentiamo noi stessi”. La massa quindi non si comporta più come singolo individuo, ma a modo suo. Credo che oggi avere a che fare con quelli che molti chiamano “automatismi irresponsabili” – calcolatori che possono attingere a una immensa quantità di dati, e quindi al sapere di altri, per trasformarsi in qualcosa apparentemente in grado di agire in autonomia – sia in analogia con quanto affermato in Massa e Potere, e soprattutto, riguarda il rapporto tra massa e potere, ponendo in definitiva problemi di governo. Nella storia economica, la collocazione delle prime società nella capitalizzazione borsistica determina una grande concentrazione di potere: prima c’erano le società di trasporto, poi energetiche, automotive e informatiche, oggi abbiamo le Big Tech dell’intelligenza artificiale.
Questa considerazione ci avvicina anche ai temi trattati da Marco Innocenti durante il suo intervento, e al suo riferimento alla velocità di sviluppo dell’intelligenza artificiale. Per un verso, ciò rimanda al dilemma di Collingridge (appena un’innovazione appare, abbiamo alta capacità di controllo ma bassa predittività sulle sue reali traiettorie di sviluppo; quando invece si è diffusa la conosciamo, ma perdiamo “le redini” per indirizzarla o smorzarne gli eventuali effetti indesiderati). Per altro verso, John Dewey diceva già negli anni venti del Novecento che le società tecnologiche generano problemi resistenti ai tentativi di soluzione nell’ambito delle istituzioni esistenti.
Già, perché l’innovazione non essendo “normale” è difficile da “normare”. Il lavoro del policy maker o del regolatore è quindi una affannosa rincorsa, palese nel caso dell’intelligenza artificiale, tanto più in un contesto di “crisi dei saperi esperti”, secondo una definizione adottata nei circuiti accademici prima che il Covid ci consegnasse la crisi dei saperi esperti più importante del nostro tempo, capace di minacciare (vedi emersione dei no-vax) la stessa dimensione della fiducia. Una delle più grandi ricerche comparative che vengono fatte sulla fiducia dei cittadini da almeno vent’anni pone in tantissimi paesi la stessa domanda: “Di chi ti fidi?”. Ebbene, da un certo momento in avanti si è passati, nelle risposte, da “l’autorità religiosa”, “l’autorità politica”, “l’autorità scientifica”, a “mi fido di uno come me”. La questione quindi di come un’intelligenza artificiale possa gestire diversamente la costruzione delle opinioni o l’espressione delle stesse, in tutte le scelte della vita democratica, è irrisolta. Carl Schmitt nel suo Dialogo sul potere scriveva “all’imponente invece direi: non credere di essere buono solo perché non hai il potere”. Le nostre società non hanno ancora compreso se considerare l’intelligenza artificiale come un potere che cade dall’alto, e quindi appartenente al set delle decisioni prese dal potere consolidato, oppure dal basso, appartenente quindi al set delle decisioni “di uno come me” o comunque di una collettività diversa.
Come Fondazione Bassetti non pretendiamo di detenere questa risposta, ma riteniamo di avere un ruolo da organizzazione della società civile che si adopera affinché la società questa domanda se la ponga. Abbiamo partecipato e partecipiamo per esempio a diversi progetti europei di Responsible Research and Innovation (RRI): la responsabilità dell’innovazione nel tempo si è quindi istituzionalizzata, prima negli Stati Uniti, poi in Europa. Con il progetto REINFORCING, di cui siamo ente coordinatore, è stata sviluppata, ed è da poco online l’ORRI platform, la piattaforma europea dell’Open and Responsible Research and Innovation. Il termine “open”, che si è aggiunto nel corso degli anni, indica la volontà di un approccio più democratico rispetto a un modello di organizzazione del sapere e del potere considerato tecnocratico. Le pratiche della RRI, che contengono nella maggioranza anche una proposta di azione, sono molte: consensus conference, democrazia deliberativa, citizen jury, agenda setting politica… Si va in Europa, si parla dei progetti con le istituzioni anche regionali e locali, e si coinvolgono i cittadini in modalità formalizzate affinché possano dare valutazioni informate, ma anche per far sì che ci sia un ritorno in termini di fiducia quando si fanno politiche e investimenti che riguardano ricerca e innovazione. Un modo per mettere gli attori al tavolo, costringendo chi non lo farebbe a discutere in modo informato con diversi strati di cittadinanza.
Segui i link per approfondire gli altri interventi:
- Digital Intimacy: Postphenomenology Seeping into Dirty Viscosity, Nicola Liberati (di prossima pubblicazione)
- Responsible Innovation in A Startups: Integrating Moral Reflexivity into Practice, Marco Innocenti (di prossima pubblicazione)
- Immagini e Immaginari dell’Intelligenza Artificiale, Alberto Romele (di prossima pubblicazione)
- Intention and Responsibility of Al Agents, Federico L. G. Faroldi (di prossima pubblicazione)