Si è tenuta in Fondazione Bassetti lo scorso 16 maggio 2022 la presentazione del libro di Veronica Barassi “I figli dell’algoritmo. Sorvegliati, tracciati, profilati dalla Nascita” (LUISS University Press, 2021), un volume che approfondisce con esempi, analisi e riflessioni la questione della datificazione, e della profilazione, delle vite umane fin dal concepimento, per esempio attraverso app medico-sanitarie, strumenti digitali di automonitoraggio, social media, device di domotica.
Di seguito una sintesi della discussione (a cura di Anna Pellizzone), il video completo degli interventi, il podcast e alcune fotografie.
————————–
PODCAST
Anche nelle applicazioni:
—————————————————————–
Sintesi (a cura di Anna Pellizzone)
Una delle prime curiosità che l’autrice, antropologa di formazione e oggi Professoressa presso l’Università di San Gallo in Svizzera, ha svelato rispetto al volume, sta nella genesi del libro stesso. La Barassi si occupava di social media e sorveglianza digitale, quando nel 2015 ha vissuto in prima persona l’esperienza della maternità. In un periodo storico scandito da tre grandi cambiamenti – l’arrivo del web 2.0 e dei social media, la produzione di big data analizzati tramite super computer e gli avanzamenti tecnologici nell’ambito del deep learning – all’autrice saltò agli occhi la grande quantità di informazioni sui propri figli che i genitori con cui entrava in contatto condividevano in rete. “In particolare – ha raccontato – mi colpiva il fatto che alcune persone postassero online contenuti politici ricollegandoli ai propri bambini, per esempio per fare critiche aperte al governo sui social“. Da un punto di vista antropologico, “osservavo una generazione di cittadini datificati dalla nascita, a cui veniva negato il diritto di fare quel lavoro di definizione di sé, che noi tutti facciamo quando scegliamo chi essere come persone“.
In un primo libro, “Child | Data | Citizen: How Tech Companies Are Profiling Us from Before Birth“, l’autrice ha descritto come le famiglie si relazionano alla datificazione dei bambini, in particolare ragionando su cosa sono i dati personali, su come possono essere raccolti in contesti molto diversi, dalla scuola alla salute, dai social media alle case. “Tutti ambiti – l’educazione, la sanità, i social network, la domotica – in cui le big tech investono moltissimo“. Poi, con la pandemia, “ho portato l’analisi un po’ più in là, approfondendo la relazione tra dati e diritti“.
Dal dialogo con i due discussant – Virginia Sanchini e Alessandro Isidoro Re – invitati da Fondazione Bassetti per discutere con la Barassi, sono emersi molti interrogativi, prima di tutto, di senso: perché raccogliamo i dati dei bambini? A che bisogni rispondiamo così facendo?
Molte le tematiche che sono state toccate durante la discussione, a partire da considerazioni sull’arretratezza del nostro sistema regolatorio, in perenne ritardo rispetto alla tecnologia. Se da un lato abbiamo a disposizione il concetto e la pratica della privacy by design, dall’altro emerge la necessità di una più estesa “giustizia sui dati” e di un’etica by design degli strumenti di intelligenza artificiale. In che modo la scienza dei dati e le innovazioni ad essa connesse hanno a che fare con i nostri valori e perché è importante che la tecnologia ne tenga conto?
Per rispondere a questa domanda l’autrice ha riportato un aneddoto famigliare: “Per scelta non utilizzo Alexa, ma mia figlia a casa di un’amica ha chiesto a questo software quale fosse l’età per sposarsi e per avere dei figli. Alla prima domanda il sistema di intelligenza artificiale ha risposto 18 anni, alla seconda 12. E da questo naturalmente è scaturito un dibattito in famiglia di una certa importanza, per esempio sulle spose bambine“.
Dopo queste prime battute introduttive, l’incontro ha raggiunto il suo culmine con un affondo sul concetto di profilazione, stimolato dal Presidente Bassetti. “Questo libro pone un tema diabolico: stiamo vivendo un dramma politico e culturale, interessantissimo, gravissimo e come pochi omologo al senso della Fondazione“. Secondo il Presidente, il primo problema che il testo ci pone sta proprio nella profilazione in sé: “Il tema vero è già nel titolo, I figli dell’algoritmo. Quale maggiore lesione al concetto di libertà se non con la profilazione? La tecnologia informatica sta distruggendo il potere politico e stiamo consegnando la gestione del pianeta all’intelligenza artificiale. Ci stiamo mettendo al servizio di tecnologie che non sappiamo controllare e che sappiamo produrranno effetti drammatici“.
Per reagire allo stimolo del Presidente Bassetti, l’autrice è partita ancora una volta da un episodio personale, “in una pagella delle medie i miei insegnanti scrissero che ero molto distratta e che non avevo doti accademiche ed effettivamente in quel momento era così“. Ma come ci insegna l’antropologia gli esseri umani sono complessi, in divenire, diversi a seconda del contesto, ed è molto difficile captarne le possibilità in modo scientifico. E ha aggiunto: “La profilazione è un processo umano. Se devo assumere una babysitter metto insieme una serie di informazioni e in base a quello mi faccio un’idea di chi lei o lui possa essere, per prevenire un possibile rischio a cui potrei esporre i miei figli. Come umani profiliamo le persone sulla base di cultura, del modo di vestire, e di altri parametri“.
La profilazione si basa sulla classificazione. “Classifichiamo per capire cosa è bene, cosa è male, cosa è proibito“, ha spiegato l’autrice. Tutte le culture classificano, ma il “come” è legato alla nostra cultura. “Oggi, per la prima volta nella storia, insegniamo alle macchine a capire il nostro mondo, a leggere il nostro mondo, e a prendere decisioni sul nostro mondo. Diamo loro le informazioni che abbiamo, i nostri database e i nostri sistemi di classificazione, perché loro imparino a leggere tutto cioè. Ma la classificazione è un processo culturale, non c’è nulla di oggettivo“.
La domanda a questo punto diventa: un esperto del profilare può governare la profilazione in modo democratico?
Sulla base di un nuovo studio che sta portando avanti, Veronica Barassi ha spiegato che da un monitoraggio dei media in tre diversi Paesi europei è emerso che l’interesse della stampa per gli errori dell’intelligenza artificiale è alto, soprattutto in ambito sanitario. E anche nella società civile e tra quelli che l’esperta chiama i “critical tech entrepreneurs“, molto si sta muovendo, per cui stanno nascendo tecnologie alternative in grado di rispondere a questi problemi, etiche by design. Per esempio, nell’ambito del riconoscimento vocale dei bambini, c’è una azienda che lavora senza raccogliere dati, nemmeno in forma aggregata.
“È vero che abbiamo sbagliato – ha commentato l’autrice – che siamo stati superficiali, poco cauti. Però è anche vero che ci sono molte persone che si stanno muovendo nella direzione giusta. E dal 2018 ad oggi stiamo assistendo a un’espansione del dibattito pubblico su questi temi“.
Molte le reazioni anche dal pubblico. Da una riflessione sui vantaggi che una profilazione “giusta” potrebbe portare all’individuo (salvo il fatto che ad ora la profilazione non avviene mai a livello individuale e che ha insiti in sé i bias dei processi di categorizzazione, che amplificano i meccanismi alla base di una società “sistematicamente disuguale”) alla condivisione di una considerazione sulla disponibilità di troppe informazioni: anche in un modo dominato dai dati e dall’informazione a un certo punto ci dobbiamo fidare (per esempio della babysitter) e non possiamo cercare sicurezza esclusivamente nei dati.
——————–
——————–