Il dibattito pubblico e politico sull’impatto dell’intelligenza artificiale, nel mondo e nel nostro Paese, è apertissimo e, come tale, lungi da essere sciolto. Le posizioni in campo rispetto all’innovazione tecno scientifica, e all’intelligenza artificiale come una delle sue forme, non sono nemmeno riducibili alla classica polarità “apocalittici e integrati”, tale la complessità e il numero degli attori che intervengono. È di questi giorni il via libera del Consiglio dei ministri alle nuove regole in materia di intelligenza artificiale che vorrebbe armonizzare l’applicazione dell’AI Act recentemente approvato dal Parlamento Europeo in Italia. La nuova strategia nazionale, con la conseguente designazione delle autorità di regolamentazione, ha generato qualche polemica soprattutto da parte di alcune delle organizzazioni della società civile che si occupano di privacy e diritti umani. Scegliere di affidare il controllo dell’Ai italiana all’Agenzia per l’Italia Digitale e all’Agenzia Nazionale per la Cybersicurezza ha infatti precluso il coinvolgimento di un ente terzo e autonomo come è avvenuto per la privacy o altri aspetti della vita pubblica. Questo a conferma di come sull’indipendenza o meno delle agenzie di controllo si sia sempre giocata una battaglia politica. L’argomento a favore del Governo è che per un compito simile servono le competenze, competenze rintracciate nelle agenzie esistenti, ma è evidente che questo non basta a rimuovere il problema di “chi controlla il controllore”.
Guardando all’estero e alle connotazioni politiche del rapporto con i detentori delle tecnologie, interessante riferirsi all’incontro di Elon Musk e Javier Milei nella megafabbrica GigaTesla ad Austin, in Texas, con un proclama a difesa delle libertà – si è parlato di liberalizzazione dei mercati e di eliminazione degli ostacoli burocratici per gli investimenti – “per un futuro entusiasmante e stimolante”, come scritto sui social dal fondatore di Tesla. Qui torna alla mente un libro di qualche anno fa di Massimo Gaggi, Homo Premium. Come la tecnologia ci divide (Laterza, 2018), in cui l’editorialista del Corriere della Sera constatava come nel passaggio dagli anni Settanta alla fase di sviluppo di Internet, cioè quella in cui i cavalli selvaggi della tecnologia digitale si sono mossi senza regole, i libertari fossero diventati liberisti. La nuova economia nata dalle innovazioni della Silicon Valley aveva certamente creato tante opportunità, tanta “libertà”, ma quelle che erano culture libertarie di partenza nella realtà sono diventate culture di mercato, concentratesi necessariamente in grandi imprese multinazionali tendenzialmente monopolistiche.
è nelle pratiche di cooperazione e partecipazione che si può trovare una soluzione politica al grande controllo di sapere e potere di oggi
Sfidare le autorità di cui il mondo è dotato per contrastare i monopolisti è una pratica costante quando si parla di intelligenza artificiale. Microsoft ha da poco chiamato a dirigere la nuova Microsoft AI Mustafa Suleyman, cofondatore di DeepMind nel 2010 e in Google fino al 2022, insieme ad altri suoi sviluppatori. Perché assumere le singole persone invece di rilevare direttamente l’impresa che aveva creato lo stesso Suleyman? Perché Microsoft ha tutto l’interesse a sfidare la politica aggirando l’antitrust continuando a svolgere una politica di concentrazione, monopolista. E d’altra parte, se si guardano i numeri della capitalizzazione borsistica mondiale, che da sempre, nel corso della storia economica, sono un indicatore di potere, vediamo che, mentre nella capitalizzazione borsistica novecentesca erano presenti le grandi imprese dell’energia, poi le grandi imprese dell’automotive e quelle dell’informatica, oggi in testa alla classifica troviamo le grandi imprese dell’intelligenza artificiale. Nei dodici mesi del 2023 le così dette Big Tech sono cresciute, in termini di capitalizzazione, di 4,23 trilioni di dollari: si tratta di una concentrazione di potere notevolissima capace di esercitare influenza politica verso la quale l’Europa con Ai Act e gli Stati Uniti in altri modi stanno cercando di porre un limite.
È evidente che abbiamo a che fare, attraverso l’intelligenza artificiale, con un processo di liberazione di sapere molto grande, ma come sempre nella storia, cosa su cui il lavoro di Fondazione Bassetti si concentra da trent’anni, il problema è che non appena gli uomini sanno e possono di più, subito si scatena la lotta per decidere verso quali fini tale potenza debba essere indirizzata. E questa “lotta”, come appare sotto i nostri stessi occhi, può passare serenamente dall’esercizio della guerra, con un’intelligenza artificiale utilizzata per la selezione dei bersagli durante i bombardamenti, al miglioramento delle condizioni della salute delle persone. La questione resta, almeno per noi di Fondazione Bassetti, domandarsi a quale sapere va il potere, con la cura di non invertire la domanda: il problema infatti non è come i poteri esistenti utilizzano i nuovi giacimenti di sapere aperti dal digitale e dalle intelligenze artificiali; il problema è semmai capire a quale sapere va il potere, perché oggi le leve del sapere non stanno in mano al Parlamento, alla Commissione Europea, al governo federale degli Stati Uniti e nemmeno all’esercizio autocratico del potere politico in Cina.
A questo proposito, Simone Pieranni nel 2022 scriveva Red Mirror. Il nostro futuro si scrive in Cina (Laterza) per mostrare come il controllo pervasivo delle nostre vite attraverso gli strumenti offerti da digitale e intelligenza artificiale fosse già realtà. Un meccanismo gestito dal potere centrale attraverso il quale tutti i comportamenti digitali contribuiscono alla creazione di una “classifica” che influenza l’opportunità di agire liberamente, di viaggiare, o di ottenere un prestito. In pratica, se la reputazione digitale non è conforme alle indicazioni del potere, le libertà individuali si riducono naturalmente. Ma sarebbe un errore attribuire l’esercizio arbitrario dell’intelligenza artificiale a un solo potere “cattivo”, quello cinese appunto. Credersi “buoni” non garantisce una via di scampo. Come scriveva Carl Schmitt in Dialogo sul potere(Adelphi): “all’impotente invece direi, non credere di essere buono solo perché non hai il potere”.
Nel mondo delle grandi multinazionali del digitale che concentrano il sapere e che concentrano il potere, la tentazione di addossare ogni responsabilità e di credersi “buoni” è grande, ma invece quello che si dimostra è che è nelle pratiche di cooperazione e partecipazione che si può trovare una soluzione politica al grande controllo di sapere e potere di oggi.
Con questo intervento Francesco Samorè ha partecipato all’incontro del 13 aprile 2024 “CreAI – Cosa può fare ciascuno di noi e cosa possiamo fare collettivamente?” organizzato da N.i.n.a. – acronimo di “Né intelligente né artificiale” dal titolo del libro di Kate Crawford – ultimo appuntamento del ciclo d’incontri “Le conseguenze dell’AI”.
N.i.n.a è un gruppo nato a Milano a gennaio 2024 con lo scopo di indagare l’impatto dell’intelligenza artificiale su alcune aree tematiche come i mondi del lavoro, la sostenibilità ambientale, discriminazioni e disuguaglianze vecchie e nuove, la circolazione delle informazioni. Su www.nina.watch sono presenti gli audio e i report di tutti i cinque incontri.