Il 21 settembre 2023 Fondazione Bassetti ha ospitato il dialogo Generazioni a Confronto. Intelligenza artificiale, apprendimento e sviluppo creativo. Protagonisti Piero Bassetti, nella duplice veste di presidente di Globus et Locus e della Fondazione, Gabriele Giacomini, docente di Filosofia del digitale presso l’Università degli Studi di Udine, e gli studenti del Politecnico di Torino, del Politecnico di Milano e dell’Università Statale di Milano. Naturalmente in sala tanti giovani che, come nell’appuntamento torinese, desideravano partecipare al dibattito di idee.
In questa pagina rendiamo disponibili una sintesi, i podcast, la registrazione video dell’incontro e alcune fotografie.
INTELLIGENZA ARTIFICIALE, APPRENDIMENTO E SVILUPPO CREATIVO
Il primo di una serie di appuntamenti per portare al dialogo sui grandi temi del presente giovani e adulti. Questa la prima “notizia” che viene offerta alla presentazione di Generazioni a Confronto. Intelligenza artificiale, apprendimento e sviluppo creativo. Il punto di partenza della riflessione collettiva è un articolo suggerito da Giacomini su uno studio condotto dall’Università di Cagliari pubblicato su ResearchGate che rilevava come l’intelligenza artificiale, rispondendo in modo corretto a oltre il 60 per cento dei quesiti, aveva superato il test nazionale 2022 di ammissione ai corsi di laurea in medicina e odontoiatria. «È uno dei tanti criteri che noi adottiamo per “misurare” l’intelligenza degli studenti», dice Giacomini, «ma questo risultato, pur sapendo che l’intelligenza ha molte dimensioni, impatta sia sulla nostra identità di esseri umani, dando un ulteriore colpo al nostro antropocentrismo, sia sul lavoro, se ammettiamo che, almeno per alcune abilità, le macchine fanno meglio di noi. Macchine in grado di superare forsanche il test di Turing esibendo un “comportamento intelligente”, e ponendo per la prima volta a rischio non i lavori ripetitivi e di fatica, ma quelli creativi, legati alla conoscenza e ai processi decisionali». Intervenendo in sala, i ragazzi (Giorgio, Federico, Riccardo, Simone, Donato) sollevano i primi dubbi. Dubbi che più tardi Giacomini definirà “auto-rassicuratori”, su un accumulo di sapere che non può essere assimilato alla creatività; su un’evoluzione esponenziale apparentemente infinita e che invece (forse) presto si bloccherà per mancanza di nuove istruzioni; su una capacità e responsabilità decisionale che potrebbe essere inficiata da bias e hallucination; o sul fatto se siano più importanti i risultati o i nuovi processi generati. Ci sono, come è ovvio, più domande che risposte, ma servono forse anche diversi punti di approccio al tema.
Intelligenza artificiale, è davvero “solo” uno strumento?
«Se vogliamo capire cosa comporta l’intelligenza artificiale, dobbiamo uscire dall’idea che sia uno “strumento”», interviene Bassetti. «Per chi, come l’essere umano, si considera al centro e al governo di ogni azione, la valutazione dello strumento dipende dalla sua capacità di servire la nostra volontà. Per questo, la preoccupazione dominante riguarda la funzionalità dell’IA, mentre la tendenza diffusa è analizzarla rapportandola sempre al nostro concetto di intelligenza. Basterebbe pensare che, quella umana, non è l’unica intelligenza presente sul nostro pianeta, per capire che “misurare” secondo i nostri criteri non può che condurre a conclusioni errate. Nello studio presentato dall’Università di Cagliari, l’IA, efficace sugli altri quesiti, sbaglia invece cinque risposte su sei che richiedevano ragionamenti logici. Cosa dovremmo dedurne? Considerato che la fisica quantistica multidimensionale ha dimostrato che la “nostra” logica basata sul principio di non contraddizione non basta più a spiegare il mondo come lo conosciamo oggi, forse che l’intelligenza dell’IA è in grado di intelligere cose che l’umanità non è in grado di comprendere. Cosa che specifica, per altro, il significato stesso di “intelligenza”, e che ci pone di fronte al vero tema da affrontare, ovvero, se noi accettiamo o meno che la nostra intelligenza venga “superata”, che la comprensione del mondo avvenga o meno per ragione di una potenza quantitativa. In ogni caso, noi che abbiamo organizzato il mondo intorno all’assunto che il potere sta a noi in quanto esseri più intelligenti, dovremmo uscire dalla nostra solita modalità di pensiero…. Se accettiamo, o costatiamo, che l’intelligenza non è più riferita a un soggetto, ma a un meccanismo fruibile da chiunque, anche tutta la politica, la forma e l’agire della nostra democrazia, cambia radicalmente. Il rapporto tra sapere e potere è al centro della Fondazione, consapevoli che l’innovazione non si può normare se non ex post. E adesso si apre una nuova sfida».
Quantità vs qualità. Una falsa opposizione che mette al centro il valore
Un cambio di paradigma, ma anche di prospettiva, quello proposto da Bassetti e condiviso anche da Giacomini, che invita quindi ad abbandonare discussioni su pappagalli stocastici, limiti creativi, quantità vs qualità: «Se dobbiamo preoccuparci di qualcosa», dice, «pensiamo al fatto che a oggi non conosciamo i processi che portano alle risposte date dall’IA. Abbiamo le soluzioni, ma non le spiegazioni. L’IA è una black box che non ci permette l’accesso alle sue fonti, e se si applica tutto questo a questioni polizia, a questioni giuridiche, o sul tema della responsabilità, contesti in cui la procedura fa parte della sostanza, è evidente che la questione black box sia particolarmente significativa». Confronto e misura non sono però gli unici ambiti di riflessione. Marco Manzoni di Studio Oikos, ribadendo la necessita di una maggiore attenzione scientifica verso tutte le forme di intelligenza, vegetali comprese, invita a portare al centro della discussione quello dei valori. «Non esiste un’intelligenza neutra, e per l’essere umano non si è mai trattato di “saper più cose” quanto di interrogarsi sulla finalità del suo essere, del suo agire e dei valori che le ispirano. Noi siamo molto arretrati su questioni etiche e di governance per quanto riguarda l’IA, eppure, senza porci queste domande di fondo, oltre a essere superati dalla performance funzionale, perderemo il controllo del nostro destino». Il cuore della questione è dunque la natura e il senso dell’essere umano? Come rileva Francesco Samoré: «In fondo, noi ci sentiamo sfidati dal problema di vivere insieme in un mondo nuovo. Come individui e come collettività. Il nostro sapere per tanto tempo è cresciuto e si è trasmesso con le stesse modalità di apprendimento, oggi possiamo apprendere dall’IA mentre l’AI apprende da noi e anche da sé stessa, da tutti i dati che noi produciamo continuamente, dati biologici, anagrafici, spostamenti… Ma se Alexa è in grado di rispondere in modo tecnicamente corretto a una bambina sull’età in cui ci si può sposare e avere figli, non è detto che l’IA sia il soggetto giusto per veicolare significati o valori collettivi. Il nodo centrale, almeno per noi di Fondazione Bassetti, resta il nesso tra sapere e potere».
La via della regolamentazione che passa dalla competizione alla cooperazione
Un “sapere artificiale”, come preferisce definire Giacomo d’Alfonso la stessa IA, forse per distinguerla dalla nostra umana conoscenza, distinzione che ancora una volta Giacomini relega nelle facili rassicurazioni. «Applicare la disputa filosofica quantità vs qualità all’IA non mi convince», dice. A livello di struttura neuronale noi siamo digitali. Gli 85 miliardi di neuroni producono un pensiero, Nell’IA la vita comincia con un miliardo, ciò significa che tanta quantità produce qualità. La nostra società è basata su l’IA, quindi sarà inevitabile che nel futuro cambieranno lavori, competenze, e anche valori. L’unica strada percorribile è quella della regolamentazione che non può, come si è detto, che arrivare dopo». Se, come dice Livia D’Anna direttrice di Globus et Locus, «l’intelligenza artificiale ci sfida a guardare oltre la nostra comprensione, a proiettarci in un mondo nuovo che per ora possiamo solo intuire ma non comprendere», ora sta alla spolitica dare delle risposte. «La politica viene chiamata in causa come portatrice di questione etica e di regolare gli interessi» dice Cristina Tajani. «Questa discussione è iniziata ponendo la questione in termini competitivi, una tendenza che è la conseguenza di un mondo dominato al maschile, ma si è conclusa nel concordare la necessità di stabilire un perimetro di regole che garantisca cooperazione e convivenza, persino con le altre intelligenze. Il tema etico e valoriale non è un tema, infatti, di competizione ma di cooperazione, e su questo come europei abbiamo un vantaggio perché l’Europa è la culla del pensiero più avanzato sulla regolamentazione dell’algoritmo, ma forse questa stessa Fondazione potrebbe essere eletta luogo di discussione sulla questione regolatoria».
Obiettivo. Più domande che risposte
L’importante, come dice Piero Bassetti, è: «Dedicare il nostro lavoro ad aumentarli i punti interrogativi, invece che risolverli. Porsi il problema dei valori è una strada che va nel senso della complessità, perché l’IA non è un problema di “più sapere”, ma di diverso sapere. E la sfida non sta nel decidere o meno se usarla, perché è ovvio che su questo non abbiamo scelta, se non altro perché siamo immersi nell’enorme “algoritmo” del mercato, ma nel come portare nell’algoritmo dell’AI uno spazio valoriale, soprattutto in virtù del fatto che più intelligenza significa più potere, un potere condizionato dai valori che un giorno avrà l’IA. Un tempo i valori, razionalizzati in un’ideologia, erano dati, oggi invece noi stiamo aprendo gli spazi a un potere senza ideologia, un potere indipendentemente da ogni valore. Questo è il compito più difficile forse per i giovani. Preoccuparsi del sistema dei valori».