Di seguito una sintesi dell’intervento di Federico Faroldi, docente di Informatica e logica giuridica dell’Università di Pavia, durante il workshop Responsibility and AI: Philosophy and Governance of Innovation tenutosi il 14 novembre presso la nostra Fondazione e organizzato da PhilTech, il gruppo di ricerca dell’università milanese che esplora la tecnologia con sguardo filosofico e un approccio orientato a etica e valori sociali. Tra gli altri relatori, Nicola Liberati (Shanghai Jiao Tong University), Alberto Romele (Université Sorbonne Nouvelle), e il segretario generale di Fondazione Bassetti, Francesco Samorè. In coda al testo, l’elenco degli altri interventi pubblicati.
Intenzione e responsabilità negli agenti di intelligenza artificiale
L’informatica e la biologia evolutiva sembrano concordare su un punto: un agente è un sistema che usa un meccanismo di feedback per controllare le sue azioni. In pratica, un agente sceglie in modo autonomo cosa fare per raggiungere obiettivi specifici basandosi sulle informazioni che percepisce. Federico Faroldi, per dare una prima definizione di “agente” e “agenza”, richiama il lavoro di Tomasello; ma cosa dire degli agenti di intelligenza artificiale o dei sistemi “agentici” che secondo molti osservatori e analisti faranno entrare in una nuova fase l’intelligenza artificiale generativa (qui un articolo de Il Sole 24Ore)? E soprattutto, tali sistemi, per lo più assistenti personali basati su grandi modelli linguistici, sono davvero agenti nel senso più profondo del termine?
Citando Sayash Kapoor, Faroldi ricorda che un sistema può essere definito “agentico” se rispetta tre criteri: se riesce a raggiungere obiettivi complessi senza istruzioni precise, anche in ambienti difficili; se può essere guidato attraverso il linguaggio naturale ad agire in modo autonomo senza supervisione; se è in grado di utilizzare strumenti, come la ricerca online o la programmazione, o di pianificare. Si tratta di un approccio funzionalista, che si concentra più su cosa fanno questi sistemi che sulle loro caratteristiche sostanziali. Determinante allora, nell’affrontare questa riflessione, leggere le tre caratteristiche del “sistema agentico” attraverso ciò che si definisce come intenzione o intenzionalità. Esistono, mostra Faroldi, almeno due nozioni principali di intenzione: intenzioni come desideri diretti (lo stato mentale che combina il desiderio di compiere una certa azione e la convinzione che si realizzerà), e intenzioni come obiettivo (essendo le intenzioni atteggiamenti che ci guidano nella pianificazione delle nostre azioni). Esiste poi una nozione giuridica di intenzione, sia per il diritto comune che civile, e che ne unisce sia la componente epistemica (intenzione come risultato di condotta), che buletica (ovvero espressione della volontà e del desiderio dell’intenzione).
Mettere l’accento sulla nozione di intenzione aiuterebbe inoltre ad attribuire un’eventuale responsabilità agli agenti inanimati
Mettere l’accento sulla nozione di intenzione aiuterebbe inoltre ad attribuire un’eventuale responsabilità agli agenti inanimati, pur essendo consapevoli che anche quando si tratta di esseri umani è estremamente difficile, se non impossibile, isolare e misurare le reali componenti mentali delle intenzioni. In sede giuridica, infatti, la presenza di intenzioni viene dedotta dalle prove comportamentali e dal contesto. Nel momento in cui ci si chiede se gli agenti AI abbiano o meno intenzionalità, Faroldi dichiara che è importante allora adottare una prospettiva strumentalista, concentrandosi sulle componenti dell’intenzione applicabili anche a esseri non biologici. Il docente di Informatica e Logica giuridica cita a questo proposito l’architettura dei processi decisionali di Markov (MDP), e il BDI Model (beliefs, desires, intentions), che consente di rappresentare le caratteristiche e le modalità di raggiungimento di un obiettivo in un sistema costruito secondo i paradigmi degli agenti.
ammettendo che alcuni agenti di IA possano avere facoltà di intenzione, questo non è di per sé sufficiente per ascrivere loro una responsabilità
Un ulteriore elemento che interviene nella comprensione delle intenzioni nei sistemi di agenti di intelligenza artificiale è il problema dell’AI Alignement (allineamento). Ricerche recenti hanno evidenziato che un’intelligenza artificiale, anche se segue le regole durante l’addestramento, può perseguire obiettivi non intenzionali una volta utilizzata. Questo fenomeno, noto come “generalizzazione errata degli obiettivi”, non è limitato al deep learning, ma si verifica anche con varie tecniche di machine learning. Un problema ancora più grave è il rischio di intramming, ovvero, come rileva Joe Carlsmith, la possibilità che i sistemi di agenti AI possano essere resistenti alle correzioni. In conclusione, anche ammettendo che alcuni agenti di IA possano avere facoltà di intenzione, questo non è di per sé sufficiente per ascrivere loro una responsabilità. Capire l’intenzionalità in un sistema agentico di AI è solo un punto di partenza. D’altra parte, ricorda Faroldi citando ancora Tomasello, molti animali semplici mostrano comportamenti intenzionali, pur non soddisfacendo i criteri che si associamo alla presenza di un’intenzione, e certo non sono da considerare responsabili moralmente o giuridicamente. Forse solo i sistemi che raggiungono un certo livello di complessità meritano di essere presi in considerazione, oppure potrebbe essere necessario introdurre un elemento normativo, tanto più che molti ricercatori rilevano, anche nell’AI Act europeo, una carenza di norme su simili sistemi. Da qui la necessità di distinguere tra una domanda descrittiva e una normativa; la necessità di capire le intenzioni negli attuali agenti di apprendimento per rinforzo (reinforcement learning), nonché il vero ruolo della funzione di ricompensa, e di progettare architetture che consentano una maggiore reattività nell’aderenza ai nostri sistemi valoriali e regolatori.
Segui i link per approfondire gli altri interventi:
– Le cose sono di due mani, alcune in poter nostro, altre no. Delega e responsabilità di fronte all’intelligenza artificiale di Francesco Samorè
– Responsible Innovation in a Startups: Integrating Moral Reflexivity into Practice, Marco Innocenti
– Immagini e Immaginari dell’Intelligenza Artificiale, Alberto Romele