Puntata numero tre dei dialoghi di Fondazione Giannino Bassetti su Responsabilità e Intelligenza Artificiale. Donata Columbro è una giornalista, formatrice e scrittrice, definita una “data humanizer” per il suo modo accessibile e inclusivo di divulgare la cultura dei dati. Collabora con Internazionale e La Stampa, per cui cura la rubrica Data Storie, ed è docente a contratto per l’università Iulm di Milano e per l’università della Svizzera Italiana a Lugano. Insegna Data Journalism al master di giornalismo di LUISS, ogni mercoledì pubblica una newsletter su dati, algoritmi e tecnologia, e ha in progetto un corso di Data Humanism alla Scuola Holden di Torino. È l’autrice dei libri Ti Spiego il Dato (Quinto Quarto 2021) e Dentro l’Algoritmo (effequ 2022).
- Partiamo da una frase del suo libro Dentro l’Algoritmo: “È fondamentale per riportare sul piano ‘umano’ la responsabilità di ogni scelta”. Una delle mission di Fondazione Bassetti è da 30 anni sancire il primato dell’innovatore sull’innovazione. L’innovazione come fatto ‘personale’ quindi, come contenuto alto di energia umana, di volontà capace di realizzare all’improbabile. “Umanizzare il dato” è allora una strategia per farsi carico di questa responsabilità? Oppure è un modo per aprire la strada a una tecnologia che sarà sempre più pervasiva invitandoci quindi a prenderci per primi “cura” dei nostri dati?
Umanizzare il dato vuol dire, proprio come si legge nel manifesto del Data Humanism diffuso da Giorgia Lupi, ricordare che ogni storia raccontata con i dati è una storia umana e, come tale, comprensiva di limiti e difetti. Non è infallibile, e soprattutto non è neutra, non può per dare infallibili previsioni del futuro, infallibili risposte. Ma non solo. La raccolta dei dati è preceduta dalla decisione, umana, di osservare qualcosa e poi misurarlo. La decisione di includere o escludere una categoria. È tutta la filiera che dovremmo considerare quando usiamo i dati, cosa che vale, è evidente, anche per l’intelligenza artificiale. Se ci dimentichiamo l’umanità che ci sta dietro, rischiamo di far ricadere la responsabilità non sull’essere umano, ma sulle macchine, scenario da evitare a ogni costo.
- Uno dei suoi ambiti di interesse è la parzialità dei dati. Ma i data set “oramai” ci sono e sono costruiti, come spesso si dimostra, riproducendo quella che si definisce la “piramide del privilegio”. Cosa si può fare ormai?
Intanto si può prendere consapevolezza del fatto che ci sono delle mancanze, che c’è un gap anche, per esempio, rispetto agli stessi Paesi rappresentati. Ci sono tante ricercatrici e ricercatori che stanno facendo in modo che venga mitigata questa assenza, utilizzando, per esempio, dei dati sintetici da aggiungere manualmente in dataset che non li avevano presi in considerazione. Ma la prima cosa è cercare di capire che cosa si vuole ottenere da un determinato dataset o da un algoritmo, capire se, anche aggiungendo i dati, il risultato non possa essere comunque discriminatorio. Sono questioni quasi filosofiche, e forse non è un caso che abbia deciso di prendere una terza laurea in filosofia, ma penso che siano le persone che non occupano i posti più in alto della piramide che possono far emergere queste mancanze. Possono fare raccolte dati dal basso, possono ribellarsi a un uso dei dati che a volte nasconde, altre volte sovra tratta, le invisibilità. Penso alle persone migranti di cui vengono presi molti più dati del necessario… lo squilibrio, insomma, ha molte facce.
- Quanto, questo tipo di sguardo sui dati e la loro provenienza ha a che fare con esercizio e natura del potere?
Raccogliere i dati è costoso e impegnativo, che ci sia una disparità enorme nella raccolta dati è quindi quasi ovvio. Pochi possono permettersi di farlo a grandi livelli e, per dirla con le parole di Shoshana Zuboff ne Il capitalismo della sorveglianza (Luiss University Press, 2019), renderizzare il flusso per trasformare i dati in attitudini comportamentali come fanno Google, Facebook, o chiunque sia dotato di una simile potenza di calcolo, di server, e di cloud. Quando si fa una raccolta dati dal basso, e si mostra il contrasto che emerge nella profilazione, lo scopo è anche quello di evidenziare, oltre agli abusi, anche dove il “potere”, i dati non li vuole raccogliere. Va detto poi che ci sono alcune raccolte dati che non possono essere fatte dall’alto, è il caso delle raccolte dati delle comunità, ed è fondamentale che permangano anche per la crescita della Data Literacy, ovvero la capacità di identificare, individuare, organizzare, selezionare, e interpretare correttamente i dati. E anche noi, infine, proviamo ad esercitare il nostro “potere”. Tiziano Bonini ed Emiliano Treré, sociologi dell’università di Siena, hanno scritto un interessante libro sulla “resistenza algoritmica” (Algorithms of Resistance, The everyday fight against platform power, MIT Press), una reazione in parte insita nella natura umana quando percepisce che le macchine non rispondono ai suoi desideri. Non credo quindi che l’accettazione acritica della tecnologia, di queste ultime come di altre, sia una strada percorribile.
- L’Ia generativa è una creatrice di mondi (citando Safiya Umoja Noble, autrice di Algorithms of Oppression, il “potere algoritmico plasma la società”). La domanda a questo punto è: quale tipo di società?
Dobbiamo credere, io lo credo, che gli esseri umani abbiamo comunque più potere della macchina, potere creativo e generativo intendo. Il vero rischio che vedo, oltre alla disparità dell’uso dei dati di cui abbiamo parlato è che, presentandola come uno strumento arcano, difficile da usare e capire, le persone non si avvicinino. A volte le paure sono alimentate da come raccontiamo la stessa tecnologia. La diffusione di informazioni false, per esempio, è certamente un problema, ma è altrettanto certo che oggi siamo molto più consapevoli che un’immagine possa essere modificata dalle intelligenze generative rispetto ad anni fa. Il fake non è il problema di per sé, il problema è chi fa un certo mestiere, e a prescindere dalla tecnologia che ha tra le mani, ha come modello di business quello dei click e non quello del servizio pubblico.
- La diffusione delle intelligenze generative è comunque percepita come una minaccia per editori e giornalisti. Occupandosi anche di Data Journalism forse può suggerire degli strumenti per affrontare questo scenario…
Nel mio modo di fare e insegnare giornalismo dei dati io unisco sia l’umanesimo che il femminismo dei dati: è questo l’approccio critico che forma le domande che mi guidano e faccio fare alle persone che lavorano con me. Sono domande che portano all’origine della statistica che stiamo osservando. Deborah Stone del MIT in Counting (Liveright ed. 2020), scriveva che dobbiamo chiederci chi c’era, e chi no, nella stanza quando sono state fatte le domande dei questionari dei sondaggi, chi ha avuto il potere di raccoglierle, chi sarà avvantaggiato o meno da quel lavoro. Dal punto di vista giornalistico, la filiera del dato è quasi più interessante del dato stesso. Grafici e mappe ci raccontano solo un pezzo della storia, ma è davvero la più interessante? La più utile all’informazione? E nel momento in cui quei dataset alimentano i modelli di intelligenza artificiale generativa che usiamo e che useremo per produrre contenuti testuali, visuali e video, attenzione e approfondimento vanno rivolti al risultato o al processo?