Cosa hanno in comune la bicicletta e l’intelligenza artificiale? Discriminano. Sono state disegnate per farlo, ma pochi si oppongono. La maggior parte abbassa gli occhi e le spalle e … pedala, o sta al balcone. In ogni caso, sta a guardare modelli come Chat GPT scegliere da che punto di vista noi dobbiamo vedere il mondo, “invece di far caso al design e alla progettazione delle tecnologie, perché questi software riproducono e amplificano lo status. Discriminazioni comprese”. Così almeno la pensa Diletta Huyskes, ricercatrice nel campo dell’etica delle tecnologie e dell’intelligenza artificiale e autrice di “Tecnologia della Rivoluzione. Progresso e battaglie sociali dal microonde all’intelligenza artificiale” (Il Saggiatore) che proprio di questo tratta.
Nelle sue pagine parte dalla bicicletta, non certo inizialmente progettata per essere usata dalle donne, e poi guarda alle disuguaglianze di oggi, quelle nascoste ma presenti nel nostro presente quotidiano. Ce ne sono, e il problema, spiega, è che “l’intera storia dell’innovazione tecnologica ci ha spinto a credere che, delegando a una macchina o automatizzando, l’essere umano non ha più alcuna responsabilità”. Non è vero, ma con l’AI e ChatGPT, sembra proprio stia accadendo di nuovo.
Più la tecnologia va avanti, più è difficile percepire il suo ruolo di potente amplificatore e acceleratore di disuguaglianze
La consapevolezza della discriminazione tecnologica.
Più la tecnologia va avanti, più è difficile percepire il suo ruolo di potente amplificatore e acceleratore di disuguaglianze. Per riuscire a coglierlo, è necessario abbracciarla con uno sguardo più ampio. “C’è un grande lavoro da fare – ammette Huyskes – e si inizia dai dati. Se quelli di training sono poco rappresentativi, il sistema di AI produrrà dei risultati parziali e potenzialmente discriminatori”. Calando questo “potenzialmente” nelle decisioni di amministrazioni pubbliche e governi, quando automatizzano alcuni servizi per i cittadini, gli impatti… sono inimmaginabili. Ma non serve sforzarsi, basta guardare all’Olanda, dove i dati sensibili sono stati conservati illegalmente, archiviati ed elaborati in modo errato e utilizzati per identificare falsamente soggetti a rischio di frode e privarli dei sussidi per i figli. O agli Stati Uniti, dove la giustizia predittiva “decide” che le persone nere hanno e sempre dovranno avere un maggior rischio di recidiva.
“Quando governi e Stato si occupano delle tecnologie che ci toccano come cittadini, influendo sulle nostre vite, è fondamentale nascano gruppi di protesta molto attivi. Negli anni 70-80 succedeva, negli Stati Uniti e in Olanda è successo recentemente, ma in Italia no. Non c’è stato finora uno scandalo che risvegliasse le coscienze, ma serve proprio uno scandalo per accorgersi di ciò che sta succedendo?”. Forse basterebbe non dare mai per scontate e inevitabili le tecnologie, come lei stessa spiega nel suo libro, ma sempre localizzarle e valutare i rischi che possono comportare, di volta in volta, per alcune comunità e società.
Una (re)azione partecipativa
Si tratta di un cambio di mentalità e di una presa di responsabilità, non di una questione di competenze. Secondo Huskes “quello che serve è una società civile e una cultura che sappiano cogliere e far capire ai cittadini gli effetti pratici di una tecnologia discriminante. Serve uno sforzo corale, ecosistemico e strutturale, per spostarsi dal piano tecnologico al piano sociale e politico”.
Oggi sembrano livelli interconnessi e interscambiabili, vasi comunicanti, ma poco comunicano e ancor meno condividono. Compiere questo passaggio significa quindi fare un grande balzo, rivoluzionario. Per prendere la rincorsa, si può iniziare a pensare all’atto di programmazione di ogni algoritmo come a un gesto politico. “In questo modo si ricentra il problema, chiarendo che la responsabilità non è degli utenti finali, ma di chi detiene il controllo di questi strumenti” spiega Huyskes. Con queste parole non intende deresponsabilizzare i singoli, noi. Anzi, con fermezza chiarisce che servono gruppi di interesse attivi, che chiedano a gran voce di poter prender parte delle decisioni attraverso processi partecipativi in cui far sentire la propria voce.
È urgente? Si. Anche se non sembra sia ancora successo qualcosa di male? Si. “È un’azione preventiva, per pensare prima ai rischi e fare di tutto per ridurli. Iniziamo, per esempio, a chiederci che impatto può avere la tecnologia che si sta progettando sulle persone e sulla società”. Dataset, tipologia di modello, indicatori, pesi: tutto può essere regolato alla luce dell’effetto che può avere sulla società. L’urgenza di un atto preventivo è complessa da far percepire, si fatica a far percepire quali effetti possa avere il regalare i propri dati alle aziende. “Non si coglie la problematica: si pensa spesso che non ci siano rischi solo perché ‘non si ha nulla da nascondere’ – spiega – ma quando noi cittadini veniamo profilati in modo invasivo, se qualcuno accede ai dati e ha uno scopo poco nobile, trova già tutto a pronto”
Si pensa spesso che non ci siano rischi solo perché ‘non si ha nulla da nascondere’ - spiega - ma quando noi cittadini veniamo profilati in modo invasivo, se qualcuno accede ai dati e ha uno scopo poco nobile, trova già tutto a pronto
Diletta HuyskesCollaborazione tra diversità
Le “levette” per controllare le nuove tecnologie, le hanno in mano gli umani, quindi. Pochi umani, spesso bianchi, ricchi e occidentali, ma umani, persone. Questo vale anche per delle black box come la maggior parte dei modelli AI. Senza troppo indignarsi e sguazzare in una rabbia immobile contro le “big”, meglio quindi convincerci e far correr voce che compiere delle scelte concettuali o progettuali diverse è possibile. Meglio guardare il futuro, e farlo anche nel e con il mondo delle aziende, a partire da quelle che progettano tecnologia. “Sono i soggetti più importanti a cui far arrivare questo messaggio” concorda Huyskes, raccontando la sua idea di squadra in ambito aziendale: interdisciplinare.
“Spesso si cerca di trasformare esperti IT in figure ibride, ma quando si ha un certo tipo di background e di mentalità, si hanno certi obiettivi, diversi da chi ha un altro tipo di ruolo e di formazione” spiega. Non si vuol mettere in discussione valori e sensibilità di chi appartiene al mondo IT: è una questione di mission progettuale e di obiettivi. L’efficienza IT quasi mai coincide con l’efficienza sociale. “Data scientist, informatici, ingegneri e programmatori, utilizzano dei criteri molto tecnici per capire se il loro sistema di intelligenza artificiale funziona. Si basano su metriche di fattibilità e di soddisfazione statistica – aggiunge – ma così manca un pezzo fondamentale, quello dell’efficienza sociale di questi ragionamenti”.
Ogni volta che ci parlano di una tecnologia potente, rivoluzionaria, efficiente, d’ora in poi meglio chiedersi “per chi? In che senso?”. E vale anche per l’ultimo modello di microonde. O di bicicletta.