Il 3 giugno 2024, nella Sala degli Atti parlamentari della Biblioteca del Senato della Repubblica Giovanni Spadolini in Roma, la senatrice Cristina Tajani ha ospitato il seminario Dopo il caso Neuralink. Neurotecnologie: potenzialità e rischi da regolamentare. Un incontro proposto dalla Società italiana di neuroetica e filosofia delle neuroscienze (SINe) presieduta da Federico G. Pizzetti dell’Università di Milano e dal neuroeticista Andrea Lavazza del Centro Universitario Internazionale di Arezzo. Alla discussione hanno partecipato i senatori Lorenzo Basso, Giorgio Maria Bergesio e Marco Lombardo; le senatrici Beatrice Lorenzin e Ylenia Zambito; gli onorevoli Alessandro Cattaneo e Giulio Centemero. Tra gli esperti, la relatrice del Rapporto del Comitato Consultivo del Consiglio dei diritti umani dell’Onu Milena Costas, il professor Mario De Caro della Tuft University Università Roma Tre, il professor Pietro Pietrini della Scuola Alti Studi IMT di Lucca, la professoressa Michela Balconi dell’Università Cattolica di Milano, il professor Giuseppe Testa dell’Human Technopole Università degli Studi di Milano, il professor Marcello Ienca della Technical University of Munich, e il segretario della Fondazione Giannino Bassetti Francesco Samorè.
È con il caso Neuralink che il tema delle neurotecnologie è salito alle cronache comuni. «Un tema prossimo, ma non uguale, a quello dell’intelligenza artificiale», ha detto la senatrice Cristina Tajani introducendo il confronto. «In verità, gli studi e le applicazioni delle interfacce neurali, o Brain-Computer Interface (BCI), hanno una lunga storia che ha visto e vede collaborare soggetti pubblici e privati. Le opportunità offerte in ambito sanitario sono molte, ma altrettante sono le implicazioni di natura etica e giuridica. Le istituzioni di diversi Paesi, come Cile, Francia, Spagna e Stati Uniti, e anche il Consiglio per i diritti umani dell’ONU, l’Unesco, l’OCSE e il Consiglio d’Europa, si stanno attivando per valutare interventi a protezione dei cittadini ed è giusto che anche il Parlamento italiano se ne occupi». Nessuna sede poteva essere quindi più consona della Sala degli Atti Parlamentari, e la relazione di Marcello Ienca, che nel 2017 ha coniato, insieme al giurista argentino Roberto Andorno, il termine ‘neurodiritti’, illumina sulle implicazioni sociali, etiche, e di governance, dello sviluppo esponenziale, molto poco regolamentato, delle neurotecnologie. Il fine è chiedersi quale ruolo possano avere i singoli Paesi, Italia compresa, nella governance di questi sistemi elettronici che, secondo una definizione molto ampia, possono registrare/leggere, stimolare/scrivere o sovrascrivere l’attività cerebrale.
«Un’interfaccia cervello computer è un qualunque tipo di canale neuroinformatico di comunicazione diretta tra il cervello e un dispositivo di calcolo, il che significa che viene completamente bypassato il sistema periferico e neuro muscolare». Si tratta di una delle frontiere più pionieristiche dell’intelligenza artificiale, e di un mercato in grande espansione, che ha visto l’aumento di sei volte del numero di brevetti e di venti degli investimenti, in cui Neuralink è solo una degli ultimi attori: Apple ha chiesto un brevetto per un sistema di sensori AirPods capace di misurare l’attività cerebrale, mentre Meta nel 2019 ha acquisito Ctrl-Labs e la sua neurotecnologia per sviluppare un braccialetto neurale destinato a diventare un prodotto di consumo nei prossimi anni. «È il passaggio», ha affermato Ienca, «dalla neurotecnologia alla personal neurotech», con implicazioni etiche senza precedenti che chiedono un ripensamento dell’importanza etico-giuridica del cervello; un organo che concorre al mantenimento della vita, predittore di salute e comportamento, abilitatore delle facoltà mentali come memoria, pensiero, coscienza ed emozioni, che determina identità personale e agency, e che costituisce persino la base normativa di principi quali la responsabilità morale e giuridica, la colpevolezza, il comportamento prosociale/antisociale. Ienca lo sottolinea: «Interferire con il cervello significa interferire con tutte le funzioni che ci definiscono come esseri umani, incrociando quei diritti, come la libertà di parola, che non sono che esternalizzazioni dell’attività cerebrale, quell’attività che, con lo scenario delle neurotecnologie, è necessario proteggere anche nella dimensione neurobiologica e cognitiva». Un principio cardine compreso anche nello studio preliminare del Rapporto del Comitato Consultivo del Consiglio dei Diritti Umani dell’Onu che entro ottobre 2024 sarà sottoposto al Consiglio per i diritti umani dell’Onu e anticipato da Milena Costas: nella richiesta di integrare l’approccio dei diritti umani a sviluppo e applicazioni delle neurotecnologie, si sottolinea la centralità del diritto alla libertà di pensiero come fondamentale per l’esercizio di altri diritti, pur non essendo compresa come tale in molte Costituzioni, italiana compresa.
Interferire con il cervello significa interferire con tutte le funzioni che ci definiscono come esseri umani, incrociando quei diritti, come la libertà di parola, che non sono che esternalizzazioni dell’attività cerebrale, quell’attività che, con lo scenario delle neurotecnologie, è necessario proteggere anche nella dimensione neurobiologica e cognitiva
Marcello IencaCosa può fare dunque l’Italia in questo contesto? Da Ienca arriva il suggerimento di inserire le neurotecnologie all’interno della Strategia nazionale e europea sull’IA, di riconoscere e promuovere i neurodiritti come strumento normativo: sono il diritto alla libertà cognitiva, il diritto alla privacy mentale, il diritto all’integrità mentale e il diritto alla continuità psicologica. In un mondo in cui i dati cerebrali sono utilizzati come base di informazione primaria per strategie di sorveglianza e/o manipolazione da parti di governi e Big Tech; in cui alcuni sviluppi di deep learning hanno reso possibile addestrare reti neurali per ricostruire il pensiero di una persona sulla base della sua attività cerebrale (il così detto mind reading); in cui il potenziamento cognitivo può portare a nuove disuguaglianze sociali; in cui si usano dispositivi neurologici che monitorano le onde cerebrali di dipendenti per progettare i flussi produttivi o valutare le prestazione degli studenti; in un mondo infine in cui potrebbero essere proprio i dati del nostro cervello ad alimentare l’economia pervasiva dei dati (Ienca cita Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri di Shoshana Zuboff), proteggere la sicurezza e la libertà del nostro cervello, pur non sottovalutando il contributo che le neurotecnologie già offrono nel miglioramento della qualità di vita delle persone affette da Parkinson, epilessia, afasia, Sla, appare prioritario. Se mai, come fa notare Giuseppe Testa, un’attenzione va posta nella ricerca di una sintesi tra i diversi approcci normativi che interessano le diverse innovazioni affinché si persegua un’efficace organicità tra queste nuove frontiere del sapere.
NEURODIRITTI, PARAMETRO DELLA CITTADINANZA EUROPEA CHE SI AFFACCIA
Il commento di Francesco Samorè
Per spiegare la rilevanza della neuroetica agli occhi di Fondazione Bassetti, organizzazione della società civile che da trent’anni promuove la responsabilità nell’innovazione, gli argomenti non mancano. Tra i migliori, quelli portati da Marcello Ienca, con l’utile chiosa dell’intervento del genetista Giuseppe Testa, a ricordarci un aspetto essenziale: oggi non c’è applicazione della neuroscienza senza intelligenza artificiale, dato che ogni interfaccia mente-computer incorpora soluzioni di artifical intelligence. Quindi, sul piano regolatorio e della responsabilità nell’innovazione, bene faremmo a non procedere per campi distinti, linee guida distinte, regole distinte.
Oltre che sugli aspetti tecnoscientifici, la sfida delle neuroscienze si gioca però anche sul piano della creatività istituzionale almeno tanto quanto sembri decidersi nelle arene della ricerca o nella capitalizzazione delle big-tech. Pochi, per esempio, sembrano rilevare che gli strumenti statistici sono stati adottati “veramente” a partire dal Settecento per definire i parametri della cittadinanza (dalle informazioni mediche e anagrafiche raccolte durante la leva obbligatoria ai censimenti ISTAT), della cittadinanza d’impresa (i registri camerali e le inchieste economiche), e della cittadinanza fiscale (i catasti). Il noto adagio “conoscere per deliberare” ha avuto così tante applicazioni negli ultimi tre secoli proprio perché gli Stati si sono basati su una (allora) nuova disciplina basata sui dati e sulle tecniche per elaborarli. Oggi la pervasività dell’informazione digitale e la realtà dell’infosfera fanno sì che – fin dal genoma di ciascuno, fin dall’identità digitale, fin dalle cartelle cliniche elettroniche – di fronte alla pubblica autorità e alle leggi, la condizione di cittadino sia sempre più definita dal big-data.
Tutti sappiamo cosa ciò significhi: sulla materia statistica digitale, prodotta incessantemente da una miriade di azioni quotidiane e soggetta alle logiche dell’algoritmo, le pubbliche istituzioni hanno sovranità fino a un certo punto. Lo stesso dibattito in corso sullo Spazio Europeo dei Dati Sanitari suggerisce che un connotato importante della nostra condizione di cittadini italiani ed europei, quello del dato-salute, sarà presto rivoluzionato. Fatto positivo, s’intenda: l’interesse generale insegue la comprensione di ciò che, innovato, determina nuovi modi di vivere insieme; cercando poi di garantire una migliore coesistenza attraverso le leggi e, al limite, nelle faglie d’epoca, disegnando nuove istituzioni.
Oggi non c’è applicazione della neuroscienza senza intelligenza artificiale, dato che ogni interfaccia mente-computer incorpora soluzioni di artifical intelligence
Un altro esempio di “creatività istituzionale”: “Cosa fatta, capo ha” era il motto di un personaggio a cui il nostro Paese deve molto. Se a cavallo tra gli anni Cinquanta e Sessanta l’Italia, pioniera in Europa, poté contare su una fonte energetica innovativa (perché prima di allora, semplicemente, giaceva nel sottosuolo) a basso costo, per la ricostruzione industriale e poi per usi civili come riscaldare case e ospedali, lo dobbiamo infatti al “vizio” di Enrico Mattei di anteporre le esigenze funzionali della distribuzione del metano alle… leggi italiane. Semplicemente, i 257 km di tubazioni del 1948 divennero 2500 nel 1952 perché le grandi dorsali di metanodotti venivano stese prima di attendere le necessarie autorizzazioni. La cosa valeva anche sul piano geopolitico: credete che Mattei o Valletta avessero chiesto il permesso, prima di portare ENI e Fiat in Russia, negli anni in cui calava, a dividere il Continente, nientemeno che la Cortina di ferro? In altri termini l’innovazione, non essendo normale, è difficile da normare. Innovazione, ripetiamo. Chi pensi che il passaggio da gas di distillazione prodotto nelle officine al metano estratto dal sottosuolo non sia paragonabile al passaggio tra web e intelligenze artificiali generative, controlli in cucina cosa esce dal fornello ottant’anni dopo le vicende menzionate o consulti le news sulla riconversione europea delle forniture di gas naturale dal 2022 a oggi, dopo l’invasione russa dell’Ucraina.
Quindi, tornando al problema di “Cosa ci mettiamo in testa”: il caso Neuralink, e le sperimentazioni analoghe già tentate, ci portano a osservare, insieme, il dito e la Luna. In altre parole, che si tratti di capire se l’uso dei dati estratti dalla nostra attività cerebrale sia o meno regolato dalle norme esistenti, oppure di considerare l’impatto sulla sfera pubblica di un annuncio “scientifico” emanato tramite un social network di cui l’imprenditore scienziato è anche il proprietario, tutto ci dice che lo scrutinio pubblico sui processi di innovazione richiede di essere fronteggiato collettivamente.
Tanto più che, accingendoci a disegnare non solo politiche sulla ricerca aggiornate, ma nuovi neurodiritti (habeas corpus, habeas mentem), è inevitabile constatare che le neuroscienze, come le scienze della vita o l’intelligenza artificiale, hanno portato fuori dall’accademia il dibattito sulla “crisi dei saperi esperti”, trasferendo il problema della fiducia (a chi mi affido?) direttamente nella sfera dell’opinione pubblica.
Ancora una volta, e da trent’anni ormai in Fondazione Bassetti, l’interrogativo: “A quale sapere andrà il potere?”, viene evocato. Tenendo bene “a mente”, che appena gli esseri umani sanno e possono di più, subito si scatena la lotta per definire verso quali fini questo plus di potere vada orientato.
È il tema richiamato dalla responsabilità nell’innovazione, le cui prassi si sono istituzionalizzate dagli anni Duemila nella formula Responsible Research and Innovation (RRI) con il diffondersi di strumenti come consensus conference, giurie di cittadini, momenti di deliberazione pubblica che comportano il coinvolgimento di cittadini, stakeholders e istituzioni quando si tratti di affrontare investimenti pubblici – o di normare – tecnologie controverse. Presa da sola, la RRI non risolverà il problema sempre più aperto del rapporto tra tecnoscienza e società, ma è necessario collocarla nell’alveo più largo della Diplomazia della Scienza. Si definisce così una parte rilevante del nostro assetto sociale in questo secolo. Meglio non sottovalutare i risvolti di responsabilità e gli strumenti di cui ci dotiamo per tradurli nella pratica.