In maggio 2023 abbiamo organizzato, insieme all’associazione Ed-work, un incontro online dal titolo Imparare al tempo dell’intelligenza artificiale. Sono intervenuti Pietro Monari, project manager education di Ammagamma, Annamaria Lisotti, professoressa di matematica e fisica e coordinatrice del progetto europeo Bring AI in Schools, lo storico e filosofo Riccardo Fedriga, e l’imprenditore digitale Piero Rivizzigno. Ognuno di loro si è confrontato con una domanda aperta, che indagava le questioni più urgenti che mettono in relazione didattica, educazione e cittadinanza.
In questa pagina rendiamo disponibili una sintesi, i podcast e la registrazione video dell’incontro.
IMPARARE AL TEMPO DELL’INTELLIGENZA ARTIFICIALE
«Durante i millenni abbiamo “imparato a imparare”: in bottega e nei monasteri, chiusi da soli in una stanza o accanto agli altri in una classe. Imparare a imparare non è quindi una sfida inedita per l’umanità. Oggi è considerata una delle competenze di cittadinanza fondamentali, ma ancora una volta una tecnologia, in questo caso la tecnologizzazione degli strumenti didattici, ci costringe a ripensare dinamiche nella trasmissione del “sapere” che credevamo date. In questo nuovo mondo, l’apprendimento passa anche dalle intelligenze artificiali. Intelligenze che, è bene ricordarlo, istruiamo noi. Siamo noi il codice sorgente che fornisce dati, commenti, immagini, storie. Lo facciamo, da prima di nascere, come abbiamo scoperto nel dialogo con Veronica Barassi per I figli dell’algoritmo ospitato in Fondazione Bassetti; lo facciamo in virtù di prosumer, contemporaneamente creatori e consumatori di contenuti, fino alla morte. E lo facciamo, molte volte, trasferendo nell’intelligenza artificiale stereotipi o informazioni discriminatorie che la stessa finisce poi con amplificare, replicandole all’infinito… Si dovrebbe capire perché, quindi, in un presente in cui noi istruiamo l’intelligenza artificiale, e poi ci facciamo istruire da lei, per Fondazione Bassetti acquisisca ancora maggior rilievo la domanda che da tempo andiamo ripetendo: a quale sapere andrà il potere? Perché se imparare è quasi un dato biologico, una necessità connaturata al nostro stare al mondo, nella sua pratica o consapevolezza, imparare – in questo caso acquisire e insieme trasferire sapere – è in definitiva un fatto di potere. Il che fa tutt’altro che deresponsabilizzarci, anzi. Fu John Dewey a dire che le società tecnologiche generano problemi resistenti ai tentativi di soluzione nell’ambito delle istituzioni esistenti, e se ancora non possiamo sapere se l’intelligenza artificiale seguirà la stessa traiettoria nelle società tecno-ottimiste, stretti tra tecnofobia o tecnofilia, qualche domanda iniziamo a porcela, poiché per tutti noi vale il monito di Carl Schmitt in Dialogo sul Potere: “All’impotente, invece, direi: non credere di essere buono solo perché non hai potere”».
Inizia così, con l’intervento di Francesco Samorè, l’incontro su apprendimento e intelligenza artificiale. Il riferimento al pensiero ‟metatecnologico” di Dewey è tanto più opportuno se si pensa che fu il filosofo e pedagogista statunitense, a cui si deve il concetto di “scuola come laboratorio”, il primo a essere consapevole che le trasformazioni epocali – e lui visse, da uomo del primo Novecento, in un tempo di profondi cambiamenti – sono intimamente legate alla necessità di rinnovare i sistemi educativi; a creare un nesso tra educazione, progresso sociale e sviluppo della democrazia (The School and Society, 1902; Democracy and Education, 1916); e a porre al centro del processo dell’apprendimento l’allievo e non più il sistema.
L’attualità di Dewey, il suo approccio quasi “umano centrico”, si riconosce anche nelle attività curricolari dell’Istituto Comprensivo 3 di Modena, il cui preside, Daniele Barca, esperto di tecnologie per la didattica, ha collaborato alla stesura del Piano Nazionale Scuola Digitale. Ad affiancarli in questo percorso, Ammagamma, il team multidisciplinare di ingegneri, matematici, storici filosofi e designer, che ha creato il percorso Lucy, la scuola sperimentale sull’Intelligenza Artificiale per gli istituti secondari di primo grado. Ed è proprio Pietro Monari, project manager education di Ammagamma, a confrontarsi con la domanda aperta: quali apprendimenti fondamentali da garantire a tutti, nel tempo dell’AI? Ecco, in sintesi, la sua risposta.
«Se sono gli studenti e le studentesse a essere al centro di ogni pratica di apprendimento, è bene forse ricordare che la loro percezione dell’Ia è profondamente diversa dalla nostra. Così, se pensiamo a un’ipotetica cassetta degli attrezzi, dovremmo pensarla nel rispetto del loro approccio. Il percorso di Lucy, per esempio, è stato strutturato superando le classiche barriere tra discipline. Per farlo, è necessario imparare a lavorare in gruppo, entrare in connessione con gli altri e creare una sorta di intelligenza collettiva. In una società che ha coltivato l’individualismo, non è facile sviluppare un modello per lavorare in gruppo, ma l’arrivo dell’intelligenza artificiale, ci pone di fronte ad altre complessità, poiché, come mostra l’ottimismo del Ted Talk di Sal Khan, fondatore della Khan Academy, l’Ia potrà garantire un tutor personalizzato a ogni studente (o almeno questa è la promessa).
Ci ritroveremo dunque di nuovo soli davanti una macchine mentre non avevamo ancora capito come costruire un’intelligenza collettiva?
E ancora, l’immaginazione non è considerata un apprendimento, eppure è importante tenerla dentro la nostra “cassetta degli attrezzi”. Quanto al pensiero critico, più volte invocato, in questa “dimensione smart” che ci porta ad avere quasi una fede tecnologica, forse coltivare il dubbio, più che il pensiero critico, sarebbe una via più efficace. Non dobbiamo rinunciare a essere il “filtro finale” di questo dialogo con l’Ia, fare passi indietro rispetto a un nuovo umanesimo. E chissà se la domanda giusta da farsi non è tanto quali saperi sono/saranno necessari o sostituibili, ma quali valori sono e saranno necessari o sostituibili?».
Trovare le domande giuste è di fatto la chiave per smascherare il pappagallo stocastico che si nasconde nell’intelligenza artificiale. Ed è giusta anche la domanda che si pone Annamaria Lisotti, professoressa di matematica e fisica di un liceo scientifico e coordinatrice del progetto europeo BRAIINS (Bring AI in Schools): «Pensiamo di educare umani di serie A o robot di serie B? Perché le potenzialità degli strumenti didattici forniti dall’Ia generative ci obbligano a ripensare le modalità e il ruolo dell’educazione. La scuola forma prima di tutto cittadini, compito importante che attualmente non riesce più a svolgere. Ma nel ripensamento degli spazi e dei tempi di apprendimento a cui ci obbliga l’ingresso di queste nuove tecnologie, si può nascondere un’opportunità. Le potenzialità sono tante, si può personalizzare il percorso di apprendimento, verificare il livello di preparazione per costruire con lo studente un piano di lavoro su misura, permettere anche a chi non ha particolari talenti artistici di esprimere la propria creatività, adattare il livello della lezione per studenti con bisogni speciali o per chi non parla ancora bene la nostra lingua. Le intelligenze artificiali generative possono lavorare per l’inclusione se ben gestite, lasciando al docente più tempo libero per sviluppare la relazione con gli studenti, per l’educazione delle così dette soft skill, e per formare un nuovo ruolo per uno studente responsabilizzato, abituato a una continua riflessione critica sul proprio processo di apprendimento. Perché bisognerebbe chiedersi, in conclusione, se con questi nuovi strumenti vogliamo fare cose vecchie, oppure cogliamo l’occasione per provare a farne delle nuove».
Il punto quindi è ancora quello. Da Dewey, con tecnofobi o tecnofili, a Umberto Eco con i suoi “apocalittici” o “integrati” (Apocalittici e integrati, 1964) come sottolinea l’imprenditore digitale Piero Rivizzigno nella sua presentazione. Il filmato tratto dal film Fantasia di Disney degli anni Quaranta serve a ricordarci che da sempre noi associamo alla tecnologia il concetto di magia, ma è solo regolandola, non ignorandola o vietandola, che se ne potrà trarre beneficio, evitando la fine di Topolino che, invano, cerca di spezzare il manico delle scope che, invece di rompersi, si riproducono. Cosa significa questo nell’ambito dei processi di apprendimento, Rivizzigno lo sintetizza in una parola, “co-evolvere”, concetto che sta alla base dello sviluppo di una nuova app pensata per trasferire sul digitale il metodo di studio di Alessandro Deconcini. Chi si occupa di pedagogia e didattica sa del resto che i termini “imparare” e “apprendere” sono simili ma non sovrapponibili. Perché si può imparare senza apprendere, si può sapere, avere pensiero, e non essere in grado di organizzarlo, né esperirlo nella realtà.
Riccardo Fedriga, storico e filosofo, professore associato presso il dipartimento della Arti dell’Università di Bologna, membro del sounding board di Fondazione Bassetti, si è quindi addentrato nella domanda forse più sottile: Come cambia la nostra memoria? Che relazione fra questo e l’apprendimento? «Preso atto che la memoria verticale degli studenti si riduce sempre di più, aumentando invece quella legata a una lettura frammentata, non lineare, riflesso di una contrazione del tempo», dice Fedriga, «è forse importante soffermarsi sulle modalità di rappresentazione e trasmissione della stessa. In fondo l’Ia è solo l’ultimo dei modi che stiamo utilizzando per portare all’esterno la nostra memoria. E, certo, lo facciamo in modo così veloce, così impensato, che non percepiamo questa “archiviazione”. Stiamo quindi perdendo memoria? Se immaginiamo un’enciclopedia, protesi delle più classiche della nostra memoria, possiamo pensarla come uno strumento che ci fornisce istruzioni e informazioni per decodificare contesti, un’enciclopedia ci permette di selezionare informazioni, escludere interpretazioni non accettabili pur nell’indeterminatezza della lettura. Anche la nostra memoria sociale, memoria collettiva, quindi, si basa sulla selezione e cancellazione di una parte di dati. Per quanto riguarda le moderne tecnologie invece, in una sorta di egualitarismo epistemico, si tende a registrare tutto quello che avviene, collettivamente o individualmente. Ed è questo il vero problema. Essere capaci di discriminare informazioni poste in fase di latenza, decidere quali memorie vanno abbandonate, e quali scelte. In caso contrario, potremmo avere un blocco di memoria per eccesso di memoria digitale, per eccesso di informazioni. Senza demonizzare l’Ia, ché, per esempio, i timori di perdere la capacità di memorizzare hanno accompagnato anche la proliferazione dei libri, è certo che la selezione di ciò che va preservato o scartato è una responsabilità politica, perché è la selezione che decide quali saranno le informazioni che ci permetteranno di orientarci nel futuro. Ogni periodo storico ha avuto il suo modo di diffondere la conoscenza, di immagazzinarla, e di trasmetterla. Quale storico allora sarà ChatGPT?». Dipenderà da noi.
Francesco Samorè interviene all’evento online