di Giuseppe O. Longo per il Convegno “Il futuro: previsione, pronostico e profezia” – Istituto Veneto di Scienze Lettere ed Arti – 19-21 ottobre 2000
L’arte è lunga, la vita è breve,
la decisione necessaria, l’errore probabile.
– Ippocrate
Sommario
A lungo le conquiste della scienza hanno alimentato l’illusione della conoscenza totale e del controllo perfetto. Ma di recente – soprattutto grazie all’avvento degli strumenti informatici – ci si è resi conto che caso e incertezza sono elementi ineliminabili della conoscenza e dell’azione. Gli strumenti di previsione si sono evoluti meno degli strumenti d’intervento, quindi siamo costretti a prendere decisioni poco informate che possono trasformare l’uomo e il mondo in maniera irreversibile. La consapevolezza di ciò rende drammatica la nozione di responsabilità verso coloro che non prendono parte alle decisioni: le popolazioni del terzo mondo, gli ampi strati esclusi dei paesi progrediti, le generazioni future. La programmazione finalistica che anima lo sviluppo tecnico si scontra con la complessità ingovernabile del mondo, conferendo all’evoluzione biotecnologica una forte dose di aleatorietà. Di conseguenza siamo costretti a rinunciare ai metodi classici, globali e precisi, di progettazione e previsione per adottare i metodi più deboli e locali tipici del bricolage, ad esempio la simulazione e gli scenari.
1. Premessa
2. La nuova immagine della scienza e il ritorno della storia
3. Laplace e la farfalla
4. Scienza, tecnica e bricolage
5. La simulazione
6. La responsabilità
7. La complessità della tecnica
8. Conclusioni
Bibliografia
Da sempre l’uomo è curioso del proprio futuro e scruta con ansia nelle brume del tempo cercando di scorgere il destino che l’attende. Questo bisogno è stato di volta in volta inseguito, se non soddisfatto, con metodi e strumenti diversi, dagli oracoli alla divinazione, dall’interpretazione dei sogni all’aruspicina. Con l’affermarsi del metodo scientifico, l’indagine del mondo della natura – dal quale, per semplificare le cose, l’uomo era stato estromesso – offrì per lo studio del futuro un contesto diverso e strumenti di carattere matematico. Uno dei risultati più interessanti, sotto il profilo psicologico, del metodo scientifico fu la fiducia di riuscire un giorno a fare previsioni esatte sul comportamento di porzioni sempre più vaste dell’universo in base a una conoscenza via via più precisa del suo stato in un istante qualsiasi.
Ma la nostra ansia non riguarda tanto l’andamento dei sistemi fisici, che in fondo non ci coinvolgono quasi mai troppo da vicino: in realtà vogliamo conoscere il nostro futuro, di singoli individui, di esseri senzienti e concreti. In tempi recenti, tuttavia, quest’ansia è stata mascherata dalla tecnoscienza, che ha spalancato alla nostra specie orizzonti sconfinati, trasferendo gli interrogativi sul futuro dal singolo all’umanità. Da quando l’uomo ha acceso le caldaie e avviato le macchine, da quando cioè la tecnologia è diventata potente, il tempo ciclico, tipico dell’antichità classica, in cui non accadeva nulla di veramente nuovo e in cui perciò l’attenzione era concentrata sui grandi temi esistenziali dell’individuo, è stato sostituito dal tempo lineare del "progresso": una freccia puntata verso un vertiginoso destino collettivo. Che l’ideale di un’indefinita marcia ascendente sia stata offuscato da alcune difficoltà impreviste non ha tuttavia smorzato del tutto il nostro entusiasmo: molti continuano a lavorare con gioia e abnegazione all’attuazione dei miti dell’onniscienza, dell’onnipotenza e dell’immortalità.
Nonostante questo volonteroso ottimismo, serpeggia tuttavia nell’animo dell’uomo contemporaneo un oscuro senso di colpa, il timore di un castigo puntuale e tremendo per la nostra hybris. Ma questo timore è dovuto soltanto alle prediche dei profeti di sciagure, che risvegliano nel nostro animo echi mai sopiti di antiche leggende prometeiche, oppure ha un fondamento concreto, per quanto oscuro e sfuggente, nella nostra coscienza di creature foggiate da una coevoluzione che non perdona la ribellione alle leggi sistemiche della vita e dell’ambiente? Intuiamo forse che allontanandoci dalla natura e distruggendo il nostro mondo di partenza mettiamo in pericolo la nostra sopravvivenza: siamo quindi spinti a cercare un giusto equilibrio, cioè a non spingere troppo sul pedale dell’acceleratore. Ma "giusto" e "troppo" sono termini vaghi, difficili da precisare: da qui nasce la difficoltà di individuare i ritmi e i modi di uno sviluppo sostenibile, cioè compatibile con la sopravvivenza dell’unità sistemica "ambiente più uomo."
2. La nuova immagine della scienza e il ritorno della storia
La scienza è considerata per tradizione un’impresa collettiva tesa a fornire descrizioni sempre più precise e univoche di una soggiacente "realtà", riducendo via via l’ambiguità delle immagini non scientifiche, o prescientifiche, del mondo. Oltre che costruire una rappresentazione del mondo priva di ambiguità, l’impresa scientifica dovrebbe anche consentire previsioni esatte, permettendo il controllo dei fenomeni e la costruzione del futuro più desiderabile. La tradizione scientifica ha così legittimato una delle aspirazioni più tipiche e ossessive dell’Occidente: quella verso la razionalità perfetta e il controllo totale.
Questo accumulo progressivo di conoscenze razionali, precise e irrefragabili lungo la strada di un indefinito perfezionamento ha certo natura storica, ma nella visione tradizionale i risultati di tale accumulo si svincolano dalla storia per assumere carattere assoluto e universale. La relatività dei contesti in cui avvengono le scoperte scientifiche è puro accidente, trascurabile di fronte all’immutabilità delle leggi di natura, così com’è pura apparenza la molteplicità confusa dei fenomeni di fronte alla solida unità delle descrizioni e delle leggi che via via la scienza disvela. L’idea che dietro la pluralità fenomenologica esistano leggi di natura semplici, perenni e universali è di per sé un’ipotesi metafisica di enorme portata, ma non meno impegnativo è il postulato che noi possiamo scoprire queste leggi con la nostra particolare epistemologia e sulla base della nostra limitatissima esperienza.
Questo bisogno di unità si è manifestato anche sotto il profilo metodologico; infatti in tutti i settori della ricerca si è coltivata l’aspirazione verso un metodo ideale, preciso e rassicurante, che è stato identificato con quello delle scienze esatte. I grandi successi descrittivi e predittivi di queste discipline hanno alimentato da una parte una certa supponenza nei fisici e dall’altra un certo senso d’inferiorità in biologi, sociologi, psicologi e via dicendo: supponenza e inferiorità derivanti dalla premessa più o meno tacita che il "vero" metodo scientifico fosse quello della fisica, basato sul riduzionismo, l’oggettività, la riproducibilità sperimentale e via dicendo, e volto alla determinazione di leggi precise, esprimibili con relazioni matematiche. E anche se oggi la visione che della fisica e dei suoi metodi hanno gli stessi specialisti è soggetta a profonde trasformazioni, le scienze dell’uomo aspirano ancora a questa ascetica purificazione e cercano di mutuare un linguaggio matematico che è stato foggiato e collaudato con intenti molto diversi e di adottare metodi e concetti troppo semplici per essere di qualche utilità di fronte alla complessità dei loro oggetti.
Ma, come ho detto, oggi la situazione delle scienze esatte sta cambiando. In matematica, regno della razionalità cristallina, è messo in discussione, soprattutto per effetto dei calcolatori, il paradigma millenario e granitico della dimostrazione classica, tanto che alcuni cominciano a parlare addirittura di "matematica sperimentale". In fisica si scoprono fenomeni e si formulano teorie che sembrano preludere a un abbandono dell’universo ordinato, calmo e prevedibile di Laplace e che ci obbligano a riconoscere che l’incertezza, il caso, l’irreversibilità sono caratteri intrinseci della realtà fenomenica e non illusorie distorsioni dovute alla nostra limitatezza. L’ordine, la regolarità e il determinismo, che sembravano la norma, sono invece ideali inattingibili, introdotti dalle nostre semplificazioni.
A questo cambiamento di prospettiva hanno contribuito sia i "paradossi" della meccanica quantistica, che tanta importanza attribuiscono all’osservatore, sia la scoperta del mondo dell’informazione, della mente e del significato, sia, più di recente, l’impetuoso sviluppo della cosiddetta scienza della complessità. Lo studio della complessità ha addirittura portato a una vera e propria rivoluzione epistemologica, poiché ha sostituito alla ricerca dell’unico "vero" punto di vista descrittivo una pluralità di impostazioni e di prospettive tra loro articolate e integrate. E queste descrizioni sono compiute da un soggetto di conoscenza, che vi porta tutta la sua individualità storica, culturale e strumentale. L’immagine unitaria di qualunque oggetto dell’esperienza ci appare quindi come una costruzione mentale da cui non è possibile estromettere l’osservatore. Questa concezione costruttivista dell’epistemologia comporta una profonda modifica del rapporto tra oggetto e soggetto della conoscenza, e contribuisce a un ritorno della storia.
Nella concezione costruttivista che si va delineando, la scienza non è più vista solo come immagine di una realtà da rispecchiare fedelmente, ma anche come riflesso dell’uomo nello specchio della natura: e non dell’astratto ricercatore, intercambiabile con ogni altro, bensì di ogni singolo uomo, individuo preciso, storico, immerso nella sua società e nella sua cultura. Non più, o non solo, dunque una scoperta progressiva del segreto del mondo, bensì una scoperta progressiva e parallela del sé e quindi anche un tentativo di dare al mondo e al sé-nel-mondo un significato, recuperando all’impresa scientifica uno spessore culturale ed esistenziale che la riscatti dall’appiattimento legato alla dicotomia astorica del vero e del falso. Non sorprende, in questa visione costruttivista, che di fronte alla natura ogni scienziato sia latore di ambiguità, così come di fronte a un testo ogni lettore è rivelatore di ambiguità interpretative.
Ci si accorge insomma che la realtà è troppo complessa per sopportare descrizioni semplici: i tentativi di estrometterne l’osservatore e di purificare troppo i fenomeni spesso naufragano contro l’insignificanza dei risultati ottenuti. La molteplicità delle descrizioni e dei punti di vista, che pareva un deprecabile difetto epistemologico e metodologico, oggi si rivela insomma non solo come un potente mezzo descrittivo ma addirittura come fonte di ricchezza interpretativa e di significato esistenziale. Moltiplicare i linguaggi e gli strumenti, le impostazioni e i percorsi significa sostituire alla ricerca di una congetturale unità del mondo e del metodo, esprimibile in sequenze lineari, una rete intramata di assonanze e di analogie che si rivela come il vero fondamento costitutivo dei saperi e delle culture e l’unico che può restituire senso globale all’attività di ricerca.
Come si è accennato, una delle conseguenze più cospicue di questo mutamento epistemologico è la comparsa dell’ambiguità, e proprio in ambiti da cui pareva che la si dovesse e la si potesse via via estromettere. Anche senza uscire dalla fisica classica, in particolare senza invadere il terreno della meccanica quantistica, ci si può rendere conto infatti che la molteplicità dei livelli di descrizione e la loro reciproca irriducibilità comportano la presenza di profonde ambiguità che riguardano, ad esempio, la natura del tempo, la strutturazione della realtà e le nostre interpretazioni del mondo. E anche queste ambiguità sono di natura mutevole, storica, perciò si trasformano alla luce del progresso scientifico e della riflessione filosofica. E in più la risoluzione di un’ambiguità ne fa di solito scaturire di nuove e più profonde, a livelli inattesi e talora sorprendenti.
Oggi, insomma, ci si rende conto che instabilità e caos rappresentano le condizioni normali, e non eccezionali, della realtà e che sono le nostre semplificazioni a fornirci l’immagine di un mondo ordinato e deterministico, soggetto a ferree leggi immutabili. Oggi si capisce che le leggi esprimono non certezze bensì ambiti di possibilità e che l’universo non è affatto un automa in cui non c’è posto per la mente e per la sua creatività innovatrice, bensì un grande e complesso evento storico, dunque irripetibile, pervaso di innovazioni e di invenzioni.
Anche nelle scienze in apparenza più solide e oggettive si fa dunque strada la consapevolezza che ogni singolo punto di vista è relativo e insufficiente: il mondo, pur essendo in qualche modo uno, si sottrae ad ogni sforzo teoretico unitario fondato sulla razionalità algoritmica: in cambio di una comprensione, sia pur minima, di un significato, sia pur fuggevole, esso pretende da noi una partecipazione immediata, ampia, insieme corporea e mentale, in cui si possa rispecchiare in modo per così dire "ontocognitivo", il nostro essere-nel-mondo "filocognitivo" senza il diaframma calcolante che la nostra scienza vorrebbe interporre tra soggetto e oggetto (e i cui limiti sono stati messi in luce anche dalla parabola dell’intelligenza artificiale algoritmica). Questa riunificazione di soggetto e oggetto porterebbe a comprendere che conoscere qualcosa della realtà è sempre anche conoscere qualcosa di sé e che non si dà conoscenza senza che ciò modifichi l’oggetto stesso della conoscenza. La conoscenza è sempre un’azione dagli esiti incalcolabili e l’azione è sempre una conoscenza dagli esiti irrealizzabili.
Affrontando lo studio dei sistemi complessi, si è dunque scoperto, nello spazio che separa la realtà dai modelli che noi ne costruiamo, un disordine e un’indeterminazione essenziali. Eppure da questa realtà, e usando un cervello di complessità enorme, anch’esso sede di fenomeni caotici, siamo riusciti ad estrarre, nel corso dei secoli, i concetti limpidi e rigorosi della matematica. Ma il disordine emerge anche in questo dominio, che potrebbe sembrarne indenne. E’ come se con un’assidua opera di depurazione mentale avessimo mantenuto quei concetti in uno stato non perturbato, cercando di sottrarli agli effetti del disordine che regna nel mondo e nel cervello.
Oggi tuttavia l’informatica ci consente di osservare la matematica con la lente d’ingrandimento della procedura effettiva, attraverso i filtri dell’approssimazione, del tempo di computazione e della complessità di calcolo e quella profilassi criogenica non basta più a nasconderci che anche nella matematica sono presenti l’imprecisione e l’aleatorietà cui ci ha abituato la fisica più recente.
Ma la cosa più sorprendente è che la nitida e impassibile matematica classica, non perturbata, sia stata applicata alla turbinosa realtà del mondo e abbia dato risultati straordinari. Quelle astratte formule, spesso costruite con intenti diversi e lontani, hanno infatti consentito di descrivere e di prevedere molti fenomeni fisici. Ciò ha portato a credere che le formule e le equazioni matematiche non fossero solo utili strumenti d’indagine, bensì fossero dotate di uno spiccato valore di realtà e confermassero una verità metafisica: il mondo era una totalità ordinata, governata da leggi semplici e regolarità universali ed eterne. Insomma, come scrisse Galileo nel Saggiatore, il gran libro della natura era scritto in linguaggio matematico:
No signor Sarsi, la cosa non istà così. La filosofia è scritta in questo grandissimo libro che continuamente ci sta aperto innanzi agli occhi (io dico l’universo), ma non si può intendere se prima non s’impara a intender la lingua, e conoscer i caratteri, nei quali è scritto. Egli è scritto in lingua matematica, e i caratteri son triangoli, cerchi, ed altre figure geometriche, senza i quali mezi è impossibile a intenderne umanamente parola; senza questi èun aggirarsi vanamente per un oscuro laberinto.
Per me è difficile accettare questo punto di vista metafisico: il libro del mondo non è scritto in linguaggio formale (a meno di non attribuire a Dio la natura e l’attività di un matematico), è piuttosto la scienza che scrive e riscrive il libro della natura. Come dice Gianni Zanarini:
Rovesciando la metafora che fin qui ci ha guidati, possiamo affermare che, in un certo senso, la scienza non ha fatto che scrivere il libro della natura: scrivere non soltanto i capitoli relativi alle leggi, ma anche i capitoli relativi alle grandi narrazioni sulla vita, sull’uomo, sulla terra, sull’universo (quando non addirittura sugli universi possibili, frugando ‘tra le carte di Dio’ prima ancora della creazione), sull’origine e sulla fine del tempo, sull’infinito e sul possibile. Questo libro è scritto, certo, in caratteri matematici, e può comprenderlo solo chi conosce questo linguaggio: cioè l’uomo; è un libro in cui c’è spazio soltanto per causalità, meccanicismo, computazione: cioè per una proiezione all’infinito di ciò che siamo capaci di costruire con le nostre mani. E’ un libro che ambisce a prendere il posto non soltanto del libro della natura scritto da Dio, ma anche del libro della rivelazione, nel momento in cui narra dell’origine e della fine del mondo e dell’uomo. […] La conoscenza scientifica non è il prodotto di un punto di vista assoluto, che trascende l’orizzonte umano, ma è piuttosto una raccolta di descrizioni del mondo sviluppate da punti di vista interni a singole discipline, nel quadro di certi linguaggi, in corrispondenza di particolari scelte del livello di aggregazione spazio-temporale: scelte che costruiscono i propri oggetti, e delimitano l’universo delle loro interazioni. Vorrei andare ancora oltre, e suggerire una ipotesi radicale: la scienza è una costellazione di saperi irriducibili l’uno allaltro, perché ciascuno di essi dipende criticamente dai punti di vista e dalle scale spazio-temporali adottate.
Comunque resta stupefacente che esista la possibilità di scarnificare il reale in modo da farne adagiare con esattezza lo scheletro nel letto di Procuste delle formule. Basta seguire Galileo e adottare la sua mirabile capacità di eliminare dai fenomeni ogni particolare inessenziale per ricondurli sotto il dominio delle formule. Questa riduzione, per cui vengono trascurati proprio gli aspetti che non consentirebbero la matematizzazione, ha un evidente carattere tautologico, ma ciò non infirma la sua miracolosa efficacia agli occhi di chi crede nella natura matematica del mondo. In passato lo spettacolare successo di questo metodo ha certamente rafforzato negli scienziati la convinzione platonica che l’idea astratta sia superiore alla sua rozza attuazione concreta: le imperfezioni e le deviazioni sono accidenti inessenziali che turbano il modello, ma che nulla tolgono alla sua ideale e forse asintotica perfezione.
Questa convinzione ontologica fu alla base del determinismo estremo espresso da Pierre-Simon de Laplace nel suo Essai philosophique sur les probabilités:
Un’intelligenza che, in un dato istante, potesse conoscere con precisione lo stato dell’universo e che inoltre fosse abbastanza grande da sottomettere questi dati all’analisi, potrebbe ricavarne l’evoluzione dei più grandi corpi e dell’atomo più leggero: nulla ne risulterebbe incerto, l’avvenire come il passato sarebbe presente ai suoi occhi.
E’ solo la debolezza dello spirito umano a vietargli quest’impresa, che, in linea di principio, è tuttavia possibile. A patto, e non è un particolare trascurabile, di non includere l’osservatore nel quadro osservato.
Laplace aveva mantenuto il suo discorso sul piano ontologico, ma se lo leggiamo inforcando i nuovi occhiali epistemologici che ci ha fornito la grande rivoluzione (concettuale e tecnologica) legata all’informazione e alla procedura effettiva, ci accorgiamo di due ordini di difficoltà che ci obbligano ad abbandonare il tranquillo sogno di Pierre-Simon, animato solo dal ticchettio dei pendoli e dall’orbitare dei pianeti. In primo luogo non è possibile ottenere una descrizione esatta dello stato di un sistema, figurarsi poi dell’universo, perché ciò implicherebbe l’acquisizione di una quantità infinita d’informazione. Ma se la difficoltà fosse solo questa, si potrebbe ripiegare su una tesi un pochino meno ambiziosa: "Data una descrizione approssimata dello stato dell’universo in un certo istante, è possibile ricavarne una descrizione dello stato in qualunque altro istante passato o futuro con lo stesso grado di approssimazione."
Ma è proprio qui che si rivela il carattere sorprendente e quasi perverso dei sistemi complessi. La loro evoluzione manifesta una sensibilissima dipendenza dalle condizioni iniziali, che contraddice la visione tradizionale della proporzionalità tra cause ed effetti. Partendo da condizioni iniziali molto vicine, un sistema complesso può giungere a stati finali tra loro lontanissimi. Un esempio di questa sensibilità si ha ad esempio nel moto di una pallina che, partendo dal crinale, rotoli giù per il fianco di una montagna: basta un cambiamento minimo della posizione iniziale perché essa rotoli lungo un versante piuttosto che lungo l’altro.
Il meteorologo Edward Lorenz ha coniato a questo proposito la locuzione "effetto farfalla": in modo estremo e paradossale, ma espressivo, si può dire che basta il battito delle ali di una farfalla nel Mar della Cina per scatenare una tempesta sul Golfo del Messico. Questi fenomeni di complessità e instabilità, che nel loro insieme costituiscono il cosiddetto caos deterministico, sono tra l’altro alla base dell’impossibilità di fare previsioni meteorologiche attendibili a media e lunga scadenza. Per poter fare previsioni soddisfacenti sull’evoluzione di un sistema complesso bisognerebbe continuare a raccogliere su di esso informazioni a un ritmo abbastanza elevato: ma questo procedimento toglierebbe, in tutto o in parte, significato al termine "previsione".
Adottando un linguaggio antropomorfico, possiamo anche aggiungere che nei sistemi complessi si ravvisano spesso degli "scopi," talora in conflitto tra loro, per cui essi debbono operare delle "scelte" (si pensi al caso tipico dei sistemi viventi). E’ evidente allora che la semplificazione della descrizione del sistema comporterebbe una perdita irreversibile di senso e fornirebbe un modello inadeguato. Inoltre, se si vuole conservare un significato alla descrizione e alla trattazione dei sistemi complessi, si debbono reintrodurre le qualità. Il punto di vista dell’osservatore, cioè, qualifica e distingue i parametri quantitativi, assegnando loro un valore maggiore o minore. Riemerge qui il concetto di "informazione qualitativa," che ben si inscrive nel quadro coevolutivo e che fa dipendere i livelli sintattico e semantico dell’informazione dal livello pragmatico, chiudendo il circolo di Shannon e Weaver. Con riferimento al mondo del vivente, si può dire, in sintesi estrema, che solo l’attribuzione di una dimensione qualitativa, cioè di un valore di sopravvivenza, all’informazione "estratta" dall’ambiente può dar conto della nascita e dell’evoluzione degli organismi biologici, anzi ci può far capire che l’informazione non è estratta bensì costruita.
4. Scienza, tecnica e bricolage
La sconfitta di Laplace ad opera della farfalla rientra in un fenomeno di enorme portata che ha avuto luogo nella seconda metà del Novecento e che definirei come il sorpasso della scienza da parte della tecnologia. Per i Greci conoscere qualcosa equivaleva a possederne una teoria esplicita ed espressa in termini precisi: oggi diremmo che si conosce qualcosa quando se ne può scrivere la formula o l’algoritmo. L’Occidente ha ereditato questa propensione per la razionalità esplicita e per la precisione teorica e ha sempre reputato l’intelligenza speculativa, che costruisce i teoremi della matematica o gli edifici della filosofia teoretica, superiore all’intelligenza pratica, che ci consente di attraversare incolumi una strada o di guidare un’automobile nel traffico cittadino. Inoltre il culmine della scienza occidentale viene raggiunto con il formalismo matematico.
Oggi tuttavia le cose stanno cambiando. La tecnica, specie quella legata all’elaborazione e alla trasmissione dell’informazione, si sviluppa in modo così rapido e tumultuoso che la teoria non riesce più a starle dietro. La velocità e la complessità della tecnica impediscono alla scienza di tracciarne un quadro esplicativo coerente e completo e di fornire risposte certe ai problemi applicativi: che cosa accadrà se userò la tal medicina, se devierò il corso di questo fiume, se modificherò il corredo genetico di questa specie? Per entrare sul mercato e nelle nostre case la tecnologia non aspetta più la scienza e le sue patenti di legittimità.
In certa misura è sempre stato così: molte tecniche elementari non hanno mai avuto bisogno di una giustificazione teorica, ma con l’aumentare della complessità, diciamo dall’inizio del Novecento in poi, sempre più spesso le applicazioni erano frutto di rigorosi studi scientifici, ed era anzi sembrato opportuno e necessario ricorrere in ogni caso a una precisa base teorica (Guglielmo Marconi era considerato dagli accademici contempoeranei con una certa sufficienza perché la radio era il frutto più di un’ingegnosa improvvisazione che di seri studi di elettromagnetismo). Oggi invece, soprattutto grazie all’introduzione delle tecnologie informatiche, la nostra capacità di agire ha rapidamente superato la nostra capacità di prevedere. Tra il dire e il fare c’è il classico mare, ma il rapporto si è rovesciato: la tecnologia ha sorpassato, per velocità d’innovazione, la scienza. E a sua volta la scienza si appoggia sempre più spesso su robusti pilastri tecnologici.
Da un certo momento in poi la rapidità dell’innovazione tecnologica non ha più consentito alla scienza di fornire le sue tranquillizzanti spiegazioni razionali, che per molto tempo avevano preceduto, preparandole, le invenzioni tecniche o, nel peggiore dei casi, erano state in grado di chiarire a posteriori il funzionamento di macchine e dispositivi. Non intendo con ciò chiarire l’intricatissimo rapporto tra scienza e tecnica, ma solo indicare una tendenza. E’ poi interessante che in genere gli utenti degli strumenti tecnici non si curino affatto di comprenderne il funzionamento.
Il fatto che oggi molti ritrovati tecnici non abbiano una spiegazione teorica, di tipo scientifico, comporta una trasformazione dello statuto epistemologico della tecnologia, che si accompagna a un’altra profonda trasformazione: la tecnica oggi tende a produrre non "macchine" isolate e ben individuabili, come in passato, bensì "complessi" artificiali privi di confini definiti, spesso dotati di una struttura complessa (di tipo quasi organico) ma non sistematica, che s’intersecano in modo frastagliato e quasi caotico con altri prodotti artificiali o naturali (vengono in mente le zone di confine degli insiemi frattali). Ad esempio i prodotti della biotecnologia s’infiltrano in modo difficile da districare nei prodotti dell’evoluzione naturale. L’esempio delle biotecnologie è interessante anche perché manifesta il carattere incompiuto che oggi ha assunto in molti casi la progettazione e sul quale ritorneremo.
Alla luce di queste considerazioni appare molto appropriato l’uso del termine "bricolage" che alcuni autori hanno proposto per indicare sia i processi sia i prodotti della nuova tecnologia. Così si può dire ad esempio che Internet, il software, le biotecnologie e altre tecnologie molto importanti sono frutto di bricolage più che di programmazione organica e razionale.
Per capire che cosa sia il bricolage è utile rifarsi a Lévi-Strauss, che nel primo capitolo del Pensiero selvaggio, intitolato "Sulla scienza del concreto," scrive:
Sopravvive fra noi una forma di attività che, sul piano tecnico, ci consente di renderci conto abbastanza bene delle caratteristiche, sul piano speculativo, di una scienza che preferiamo chiamare ‘primaria’ anziché primitiva: questa forma è di solito designata col termine ‘bricolage’. Nel suo antico significato, il termine ‘bricoler’ si applica al gioco della palla e del biliardo, alla caccia e all’equitazione, ma sempre per evocare un movimento incidente: quello della palla che rimbalza, del cane che si distrae, del cavallo che scarta dalla linea diritta […] Il pensiero mitico appare così come una sorta di ‘bricolage’ intellettuale […] Come il ‘bricolage’ sul piano tecnico, la riflessione mitica può ottenere sul piano intellettuale risultati veramente pregevoli e imprevedibili; reciprocamente è stato osservato il carattere mitopoietico del ‘bricolage’, sia sul piano dell'”art brut” o ‘naif’, cioè nell’arte spontanea, sia nell’architettura fantastica […] Il ‘bricoleur’ è capace di eseguire un gran numero di compiti differenziati, ma, diversamente dall’ingegnere, egli non li subordina al possesso di materie prime e di arnesi, concepiti e procurati espressamente per la realizzazione del suo progetto: il suo universo strumentale è chiuso, e per lui la regola del gioco consiste nell’adattarsi sempre all’equipaggiamento di cui dispone, cioè a un insieme via via ‘finito’ di arnesi e di materiali, peraltro eterocliti. […]
Insomma le caratteristiche del bricolage sono:
– l’uso di materiali di seconda mano (cioè già usati per altri scopi) quando non siano presenti materiali più appropriati;
– l’impiego non canonico di strumenti o procedimenti progettati e destinati a uso diverso;
– la ricombinazione di strutture e componenti prelevati altrove per costruire artefatti inediti.
Si tratta insomma di recuperare materiali, dispositivi, strutture e metodi e di (im)piegarli alle nuove necessità quando non si possa o non si voglia usare nulla di meglio. Il bricolage non è solo una forma di progettazione e costruzione alternativa rispetto ai classici principi dell’ingegneria e dell’architettura: per il legame inscindibile tra conoscenza e azione, esso è anche un modo diverso di vedere il mondo. Infatti, costringendoci a ripensare il modello canonico della progettazione, il bricolage ci fa scoprire (micro)processi cognitivi tipici della progettazione che vengono di solito occultati dal modello ingegneristico. In più, esso ci consente di trovare punti di contatto tra discipline lontane e di rintracciare quella che Gregory Bateson ha chiamato "la struttura che connette".
Mentre la progettazione ingegneristica classica persegue un ordine che è intrinseco a un piano intenzionale esplicito e prestabilito, frutto della finalità cosciente, nel bricolage l’ordine emerge a posteriori e segue dall’interpretazione di una serie di azioni contingenti e interventi d’improvvisazione. Intenzioni, piani, azioni e risultati sono legati, ma in modo debole, come debole è il legame tra i metodi e i materiali usati e il risultato. Il progetto è locale, contingente, pronto a riadattarsi alle circostante nuove che scaturiscono dall’impiego di un materiale, e il materiale è impiegato perché è a portata di mano e quindi è utile ed economico benché non sia il migliore possibile in assoluto. Come nell’evoluzione biologica, l’ordine del bricolage è frutto dell’interpretazione, ma a differenza dell’evoluzione cieca, la progettazione del bricoleur è guidata da un’intenzione, da una meta sia pur vaga. Intenzione e interpretazione si alternano nel produrre significati, schemi, usi. Intenzione a priori e interpretazione a posteriori portano all’emergenza continua di strutture e significati. La centralità cede il passo alla località, l’unità progettuale alla molteplicità coordinata e variabile, la fissità al dinamismo, la rigidità alla flessibilità. Per queste sue caratteristiche, il bricolage può essere l’unica strategia d’azione in condizioni di incertezza, quando non si voglia correre un rischio eccessivo o mettere a repentaglio risorse limitate e preziose.
Un caso di bricolage che mi sta particolarmente a cuore è quello del software, che Lanzara descrive nei termini seguenti. I programmi, come ben sa chi usa il computer, vengono modificati e in parte reinventati a seconda delle esigenze personali degli utenti, tanto che il software non è un prodotto chiuso, bensì un sistema aperto e suscettibile di modificazioni adattative, di violazioni e deviazioni rispetto agli intenti del progettista: queste innovazioni, spesso all’insegna dell’improvvisazione e della casualità, sono vere e proprie forme di "accoppiamento cognitivo" tra utente e programma. Le varianti e le efflorescenze che si sviluppano intorno al nucleo originario di un programma vengono sperimentate, abbandonate, "riprese e ricombinate, su base locale, spesso in modo tacito, invisibile, al di fuori o ai margini dei piani e dei programmi ufficiali in un processo di bricolage senza fine." E’ interessante che il software che più ha avuto successo sia quello che più ha subito questa trasformazione: sembra che una certa dose d’incoerenza, di plasticità evolutiva, di disordine e di ridondanza giovi a questi "organismi," la cui complessità è tale che ormai non li si può più considerare dominabili e conosciuti una volta per tutte.
Un’altra caratteristica importante del bricolage, che ne conferma la stretta parentela con l’evoluzione biologica, è la sua dipendenza dalla storia: le successive stratificazioni strutturali dipendono, anche se in modo più o meno lasco, dalla situazione, dagli eventi e dai costrutti precedenti. Il bricolage può essere anche considerato come una tecnica di progettazione del futuro, com’è confermato dalla circostanza che la nostra capacità di agire, fare e intervenire si è sviluppata molto più della nostra capacità di prevedere, riflettere e teorizzare. Non potendo prevedere con precisione le conseguenze delle nostre azioni, non conviene fare progetti grandiosi e completi e rivoluzioni radicali o imprimere variazioni decise di corso, bensì procedere al piccolo cabotaggio, senza allontanarsi troppo dalla costa, controllando gli esiti millesimali di piccoli avanzamenti.
Tra le tecniche di cui ci si può servire per fare previsioni, un posto particolare occupa la simulazione, che per certi versi è una forma di bricolage. Essa riguarda pratiche e metodi che trovano attuazione non tanto nel mondo della materia e dell’energia quanto nel mondo dell’informazione. La simulazione viene cioè attuata essenzialmente in quel mondo "mentale" che sta oggi al crocevia di molti e svariati interessi e discipline, e in cui hanno cittadinanza concetti come il significato, la struttura, la forma, la relazione. La simulazione riguarda insomma l’universo dell’informazione (o della mente) e le sue caratteristiche, che sono piuttosto diverse da quelle tipiche del mondo fisico.
Per gli esseri umani, la simulazione costituisce uno strumento dotato di un notevole valore economico e di sopravvivenza. Prima di intraprendere un’azione concreta, di solito la simuliamo servendoci della nostra mente, o di altri strumenti che della mente costituiscono un potenziamento o un prolungamento. Possiamo così analizzare i possibili effetti dell’azione e decidere se compierla, se correggerla o se rinunciarvi. La simulazione ci evita quindi i rischi e gli sprechi legati all’attuazione concreta, e non è un caso che essa sia sempre stata al centro dell’attività mentale dell’uomo, e che sia poi stata trasferita anche nel complesso delle attività esercitate da quelle estroflessioni mentali che sono le macchine informatiche e i programmi di intelligenza artificiale.
Nel mondo dell’informazione una cosa può significare qualsiasi altra cosa, ma la simulazione va al di là di questa codifica arbitraria e convenzionale, poiché si fonda su una somiglianza, almeno parziale, e istituisce tra i due oggetti, quello simulato e quello simulante, una corrispondenza, o meglio una sorta di quasi isomorfismo, almeno a qualche livello di descrizione. Se la corrispondenza si verifica a tutti i livelli (nei limiti della precisione adottata), non si parla più di simulazione, bensì di "riproduzione" o di "emulazione". Ad esempio nel caso di un cervello umano e di un calcolatore elettronico che effettuino un’operazione aritmetica, il quasi isomorfismo si ha a livello dei passaggi aritmetici, ma non a livello strutturale né a livello funzionale fine, poiché a questi livelli non si ha corrispondenza tra neuroni e loro attività e circuiti e loro attività.
Per giudicare l’adeguatezza di una simulazione non ci si basa dunque su una corrispondenza totale, bensì su una corrispondenza parziale di esiti e di effetti osservabili, adottando una prospettiva che è tipica del comportamentismo. Con riferimento all’intelligenza artificiale (IA), il famoso criterio proposto da Turing per dichiarare intelligente una macchina si basa appunto su una simulazione di natura comportamentistica. Mediante telescrivente, un esaminatore pone domande a un uomo e a una macchina e, ancora tramite telescrivente, ne riceve le risposte. Entrambi gli esaminati si sforzano di persuadere l’esaminatore della loro natura umana e, sulla sola base delle risposte ricevute, l’esaminatore deve stabilire chi dei due è l’uomo. La macchina deve compiere in questo caso una simulazione più complessa e difficile di quella relativa all’esecuzione di un’operazione aritmetica.
Ancora più complesso è simulare, come fanno gli esseri umani nella loro mente, le azioni e i loro effetti nel mondo. In questo caso sono implicati molti livelli di descrizione, anche se non sempre i vari livelli sono definiti con precisione, mentre nel caso della matematica il livello di descrizione implicato (e per il quale si richiede il quasi isomorfismo) è uno solo. Nel caso della matematica l’azione degli elementi di basso livello della macchina (circuiti) non fornisce rappresentazioni congruenti e quasi isomorfe, a tutti i livelli rilevanti, di tutti i livelli di descrizione rilevanti della macchina cerebrale. Nel caso degli esseri umani, forzando al quasi isomorfismo un livello (il livello dei neuroni e dei circuiti, oppure quello dei passaggi aritmetici) è facile introdurre distorsioni agli altri livelli, forse per una sorta di debolezza del legame tra livello basso (neuroni) e livello alto, soprattutto se si vuole simulare un’azione complessa, che implichi significato, volontà, intenzione, percezione. La debolezza di questo legame si intuisce anche dalla discrepanza tra l’infallibilità dei neuroni, che "non sbagliano mai" nel loro funzionamento binario, tutto o niente, e le esitazioni del livello superiore, dove si possono ravvisare indecisioni, irrazionalità, oblio e così via, che sembrano difficili da ricondurre al meccanismo logico e privo di errori del livello basso. Nelle macchine di IA attuali il legame tra il livello basso e quello alto è molto meno debole: ciò parrebbe suggerire una differenza importante tra IA e intelligenza naturale. Inoltre, come sembra indicare la filogenesi biologica, non basta la presenza di un livello infimo (neuronico o circuitale) perché compaiano i livelli superiori legati al significato: probabilmente sono necessari anche valori di sopravvivenza e sviluppi culturali.
Le macchine informatiche hanno avuto due effetti in qualche misura opposti: da una parte hanno esteso le nostre capacità di calcolo e di simulazione, quindi hanno spinto in avanti i limiti del prevedibile; dall’altra hanno contribuito a modificare profondamente la nostra visione del mondo, impregnandola di complessità e di incertezza. Come ho detto, le leggi della fisica, che si pensavano eterne, precise e immutabili, hanno assunto carattere statistico.
Il calcolatore ci consente di dare alla simulazione una potenza e una precisione che la simulazione mentale non aveva e una flessibilità che il calcolo analitico non possedeva. Le simulazioni informatiche, inoltre, possono facilmente essere trasferite nel mondo della materia, cioè costituiscono la base per una costruzione immediata di oggetti e manufatti. Poiché la simulazione è una forma di bricolage, anche la previsione del futuro tramite gli scenari diventa una forma di bricolage Resta comunque il fatto che, se sono complessi, gli scenari sono tutt’altro che robusti: sono molto sensibili alle variazioni dei parametri e delle condizioni inziali, cioè sono soggetti all’effetto farfalla; viceversa, quando sono semplici, sono poco significativi e presentano molti aspetti tautologici.
Sempre più viviamo in un mondo segnato dall’artificialità, senza per questo che le nostre necessità "naturali", legate alla biologia e sviluppatesi nel corso dell’evoluzione, vengano meno. Questa duplice immersione rispecchia la fase di transizione in cui si trova oggi l’uomo, il quale non può che vedere il futuro con gli occhi, i parametri e i valori del passato. Siamo incerti tra progresso e conservazione, siamo combattuti tra un nomadismo avventuroso, alimentato dalla perdita delle certezze antiche, e il rimpianto di un sedentarismo improntato ai valori stabili della tradizione.
Questa spaccatura divide non solo persone diverse (da una parte i progressisti a oltranza, dall’altra i nostalgici), ma passa talora attraverso lo stesso individuo, con effetti destabilizzanti. Ci sentiamo più padroni del nostro destino, perché ai ciechi meccanismi dell’evoluzione biologica abbiamo affiancato quelli consapevoli del finalismo razionale. Ma l’enorme responsabilità di questa conquistata autonomia ci sgomenta e ci fa a volte rimpiangere i tempi in cui le regole erano emanate da un’autorità esterna e non erano faticosamente conquistate per essere di continuo trasgredite. Privi di questi saldi riferimenti, dobbiamo assumerci tutto il fardello delle nostre scelte, oppure delegarlo alle macchine. E’ finito il tempo in cui accettavamo le conseguenze delle nostre azioni con fatalismo o addirittura con letizia perché in fondo non ne eravamo del tutto responsabili.
Ad esempio nell’ambito dell’ingegneria genetica la progettazione finalistica (che anche in questo caso è bricolage) sostituisce all’unicità, per quanto discutibile, del prodotto dell’evoluzione biologica un ventaglio di possibilità tra cui è difficile scegliere. E le scelte rischiano di rispecchiare gli interessi particolari di un gruppo di potere più che quelli, sia pure congetturali, di tutta l’umanità. Non solo: per le perduranti limitazioni della nostra razionalità computante, i calcoli, le previsioni e le simulazioni che sostengono il finalismo cosciente possono illuminare gli scenari del futuro solo per breve tratto di tempo, mentre gli effetti delle decisioni possono essere durevoli e irreversibili. Impadronendoci dei meccanismi di decisione, insomma, possiamo trasformare le contingenze più miopi e improvvisate in destini storici dalle conseguenze incalcolabili e irrimediabili. Questo senso tragico di trapasso dalla contingenza all’irreversibilità, che ciascuno di noi sperimenta nella propria vita, si trasferirebbe così a livello di specie.
In questo senso profondo, come l’evoluzione biologica trascende alla lunga la casualità dei meccanismi locali di mutazione e selezione per formare un disegno avente un suo determinismo a posteriori, per quanto debole; così l’evoluzione culturale e tecnologica trascenderebbe i meccanismi, pur sempre locali, della finalità cosciente e razionale, per generare uno sviluppo che potrebbe rivelarsi lontanissimo o addirittura in contrasto con gli scopi di volta in volta dichiarati e perseguiti dai progettisti. Infatti, per la complessità del reale, il contrasto tra la brevità dei tempi abbracciati dalle capacità di previsione e la permanenza dei condizionamenti determinati dalle scelte si manifesterebbe con effetti di tipo aleatorio. Insomma: la casualità (a livello locale) dell’evoluzione biologica produce a livello gobale molto rigore deterministico (molta necessità); il determinismo (a livello locale) dell’evoluzione tecnologica produce a livello globale molta casualità. In questo senso l’evoluzione bioculturale avrebbe lo stesso carattere di fatalità aleatoria dell’evoluzione biologica, anche se per un meccanismo diverso e quasi opposto.
La consapevolezza diffusa di questa responsabilità nei confronti del futuro, la perdita progressiva di riferimenti saldi (filosofici, religiosi, etici), la necessità di individuare e rivedere i valori quasi giorno per giorno, la contrazione dei tempi di progettazione e di attuazione, per cui il sistema non riesce ad assestarsi in uno stato stabile prima di essere spinto verso il successivo, e il consumo sempre più vorace di risorse (anche culturali, artistiche, creative e in genere mentali) portano a stati psicologici che vanno dall’ansia all’entusiasmo parossistico all’indifferenza catatonica all’affaccendamento demenziale alla fuga nell’irrazionalità alla ricerca del trascendente. Potrebbero essere, questi, i segni premonitori di un cambiamento radicale dell’umanità, forse la fine dell’uomo a tecnologia limitata, così come lo conosciamo, e l’avvento di un homo technologicus a tecnologia intensa. Resta aperto il problema degli esiti di questa sostituzione. Potremmo davvero assistere alla fine della storia, che sfocerebbe in una ripetizione rituale, fine a sé stessa, di atti raffinati e privi di senso, all’insegna di una tecnologia sempre più autoreferenziale.
A livello di specie la responsabilità delle decisioni è ancor più drammatica che a livello individuale: infatti di solito le decisioni sono prese da pochi, ma le loro conseguenze ricadono su molti, quindi chi decide è responsabile verso gli strati esclusi dei paesi più progrediti, verso i paesi del terzo mondo e verso le generazioni future. E’ ovvio che è sempre stato così, ma oggi la riflessione su questi temi è così pervasiva e la consapevolezza del problema è cosi acuta che il senso di responsabilità ne è accresciuto.
Il discorso sul futuro è dunque segnato, nella realtà dei fatti, da un’incertezza ineliminabile, che, alla luce della consapevolezza, fa nascere il problema etico della responsabilità. Sulla responsabiltà ha scritto pagine di grande rilievo e vigore morale Hans Jonas: "Il Prometeo irresistibilmente scatenato, al quale la scienza conferisce forze senza precedenti e l’economia imprime un impulso incessante, esige un’etica che mediante auto-restrizioni impedisca alla sua potenza di diventare una sventura per l’uomo."
La tecnica moderna, dice Jonas, si è trasformata in brevissimo volger di tempo in minaccia, una minaccia che non è solo fisica, ma riguarda l’integrità dell’uomo e la sua immagine: si tratta dunque di una minaccia metafisica. Di fronte a questo pericolo incombente, nessuna delle etiche tradizionali ci può soccorrere. In un’età in cui il potere dell’uomo ha dimensioni planetarie ed effetti durevoli, non si può fare appello a norme che erano valide quando le conseguenze dell’agire riguardavano un ambito spaziotemporale ristrettissimo. La nuova etica si palesa via via come un’etica della salvaguardia, della conservazione e della prevenzione: un’etica della responsabilità contrapposta al trionfalismo tecnologico del progresso e dell’incremento illimitato di ogni variabile.
Denunciando il paradosso del potere determinato dal sapere, che ci ha dato il dominio sulla natura ma ci ha sottomesso a sé (la "ribellione della tecnica", di cui parlava Walter Benjamin), Jonas non esita a sollecitare una limitazione della ricerca scientifica: pur riconoscendo che il perseguimento del sapere è un diritto inalienabile, ne denuncia la pericolosità ormai manifesta. Da qui il suo appello alla cautela si estende alla prassi politica. In dubio pro malo: vista l’enormità della posta in gioco, nientemeno l’esistenza o l’essenza dell’uomo, nessuna scommessa sull’avvenire può essere legittima. Il bene supremo che deriverebbe dalla riuscita di una qualunque impresa utopica che volesse creare le premesse per una felicità universale e illimitata non può autorizzare il perseguimento dell’utopia, perché il suo fallimento significherebbe il male supremo: la fine dell’umanità così come essa è e la fine delle condizioni perché essa continui ad esistere così com’è.
Nasce da qui non solo un appello alla ragione, ma anche un consapevole appello all’irrazionalità della paura, perché solo l’orrore può farci recuperare il rispetto perduto per l’umanità. Contro gli obiettivi smodati deve metterci in guardia "la prosa della ragione, il pathos della responsabilità e la voce meno nobile della paura:" l’alternativa da opporre all’utopia è la moderazione suggerita dalla responsabilità, aurea via di mezzo tra la fiducia illimitata e la disperazione senza futuro.
Per affrontare il problema delle scelte e della responsabilità non c’è solo la via alta e difficile predicata dall’"apocalittico" Jonas: ci si può anche rifugiare sotto le ali neutre e anodine della razionalità: le decisioni devono essere razionali e, se lo sono, sono sempre giuste. Questo ricorso al tribunale della ragione è unilaterale e riduttivo: gli esseri umani non sono soltanto razionalità; inoltre è discutibile, perché di fatto non esiste la possibilità di prendere decisioni del tutto razionali
Infine, un altro modo per tacitare la coscienza di fronte alla responsabilità si basa sulla delega tecnologica, che fa della macchina la nuova versione del "calculemus" leibiniziano: se la macchina giustifica le mie decisioni, le decisioni sono ipso facto giuste. E’ evidente l’infantile protervia di questa posizione, che ha tutti i difetti della precedente e, in più, esime anche dal coraggio delle proprie opinioni (perché di opinioni sempre si tratta). Inoltre formalizzare la complessità è, almeno per il momento, impossibile, quindi proprio nei casi in cui sarebbe più auspicabile il ricorso all’imparzialità della macchina, questo ricorso non è attuabile. Proprio perché è complessa, la tecnica sfugge alla formalizzazione.
7. La complessità della tecnica
Il golem è una metafora frequente quando si parla della tecnologia, cioè di un’impresa che, concepita dall’uomo per il proprio vantaggio, talora gli sfugge di mano con effetti disastrosi. La classica distinzione tra scienza e applicazioni oggi sfuma sempre più e viene sostituita da un rapporto articolato e faticoso. Soprattutto per effetto degli investimenti il passaggio dal laboratorio al mercato si compie in tempi brevissimi: se da una parte il denaro accelera tutto ciò in cui si riversa, dall’altra oggi tende ad alimentare solo le ricerche che promettono applicazioni a breve. Come ho detto, ciò ha portato, nel Novecento, al sorpasso della scienza da parte della tecnica e oggi più che mai l’intricato rapporto tra le due dev’essere inquadrato in una realtà fatta di pesantezze materiali e di difficoltà attuative, resa più complicata dal groviglio inestricabile di giudizi a priori, ricostruzioni razionali, semplificazioni teoriche, implicazioni sociali ed economiche in cui la tecnologia si trova sempre inviluppata.
Da lontano tutto sembra semplice e chiaro, ma quando ci si avvicina ai minuti particolari, quando cioè si passa dal "dire" al "fare", nascono problemi spesso insolubili. Come già notava Leopardi, da lontano tutto appare bello e placato (un po’ com’era in matematica prima che il calcolatore ci costringesse a tener conto del tempo, della capacità di calcolo, della precisione dei risultati e così via). Ma vista da vicino la tecnologia è così complessa che la scienza ha poco da dire. Per tradizione, dalla scienza ci si aspettano risposte forti e chiare (come indica l’abuso irritante e ingiustificato dell’aggettivo "scientifico"), mentre qualunque problema reale ammette una pluralità di soluzioni, prove e interpretazioni, ciascuna delle quali contiene una parte di verità e, insieme, può essere smontata e confutata in un tribunale, cioè nel luogo in cui la parola dell’esperto deve venire a patti con la parola degli altri, con la retorica degli avvocati, con gli interessi delle parti e con la vita e col destino delle persone.
Ne segue una delusione nei confronti (dell’immagine romantica) della scienza che non può lasciarci indifferenti, ma che non deve neppure farci vagheggiare un grembo materno e rassicurante che ci protegga dall’errore. Bisogna accettare l’incertezza intrinseca del nostro rapporto col mondo e vivere nello stretto margine tra la rigidità e il caos, altrimenti il giudizio sulla tecnoscienza oscilla sterilmente tra perfezione e fallimento. Dobbiamo prendere atto che non esistono soluzioni certe e che ogni decisione è frutto di un compromesso; i modelli matematici non possono sostituire del tutto una lunga esperienza sul campo (e viceversa); l’analisi dei calcoli non fornisce una scala di accettabilità dei rischi. Nei confronti degli scienziati si può passare facilmente dal rispetto al sospetto quando la supponenza e la segretezza degli specialisti prevalgano sulla comunicazione scambievole.
Un’altra considerazione riguarda il circolo vizioso per cui da un esperimento non si può ottenere un risultato univoco nei confronti di un’ipotesi perché non si può essere sicuri che l’esperimento sia stato condotto in modo adeguato finché non si è certi che il risultato sia corretto. Ma della correttezza del risultato si fa garante l’adeguatezza dell’esperimento e a sua volta di questa adeguatezza ci dà conferma la correttezza del risultato. In pratica, poiché l’esperimento non può né confermare né confutare l’ipotesi sotto verifica, è la posizione a priori dello sperimentatore nei confronti dell’ipotesi che gli consente di giudicare la bontà dell’esperimento, innescando una sorta di tautologia. Questo giuoco epistemologico spiega come la tanto decantata "oggettività delle cifre" sia una chimera che non ci salva dalle controversie interpretative: ancora una volta il calculemus leibniziano viene messo in crisi.
Nonostante tutte le difficoltà, si procede: il futuro si dispiega dinanzi a noi e si trasforma puntuale in presente e poi in passato. Gli arcani vengono svelati dallo scorrere inesorabile del tempo. La storia non si piega alle nostalgie, non si cura dei rimpianti, premia e delude aspettative di ogni tipo. Le trasformazioni di cui siamo oggetto e insieme soggetto ci entusiasmoano o ci spaventano, ma sempre ci sorprendono per la loro rapidità e intensità e la sorpresa aumenta via via che cresce il livello di analisi e di consapevolezza.
I nostri tentativi di rifare il mondo, di sovrapporre alla natura un inossidabile manto artificiale, provocano benessere e disagio, ricchezza e squilibri, crescita e sofferenza. La terra si ribella e ci lancia segnali inquietanti che non vogliamo o non possiamo ascoltare. L’emergere di una tecnologia trasformativa in senso non solo superficiale, ma anche epistemologico e metafisico, ci spaventa e ci entusiasma.
Il futuro porterà con sé metri nuovi e inediti di valutazione di questi fenomeni e di questi mutamenti: ma non saranno i nostri metri, perché li adotteranno esseri diversi da noi. Non ci sono consigli da dare o da chiedere, se non forse, l’adozione di un atteggiamento più cauto, attento alla molteplicità, alla delicatezza e al silenzio. Ma quanti se la sentono oggi di tacere nel frastuono del mercato e nel rimbombo della pubblicità? E allontanarsi è possibile? Dov’è l’altrove, dove sono le uscite dal mondo?
E poi: se l’uomo cambiasse, sarebbe davvero una sciagura?
L’antica tensione tra la nostra incoercibile sete d’infinito e la nostra finitezza, la perenne fonte d’infelicità che segna la condizione umana forse non si estinguerà neppure se il nostro destino sarà di di semidèi: migreremo su altri pianeti, ma porteremo con noi la segnatura dell’evoluzione, quel nucleo incandescente e tormentoso che ci incita a trasgredire con gli occhi e coi desideri ogni orizzonte e che ci spinge ad affidare ai sogni i nostri segreti più belli. E se invece un giorno potessimo liberarci da questo doloroso retaggio, che cosa perderemmo insieme col tormento? E che cosa guadagneremmo con la serenità? Ma non saremmo noi a perdere e a guadagnare…
– Bateson, Gregory, Verso un’ecologia della mente, Adelphi, Milano, 1976, II edizione accresciuta, Adelphi, Milano, 2000.
– Bateson, Gregory e Mary Catherine Bateson, Dove gli angeli esitano, Adelphi, Milano, 1989.
– Bocchi, Gianluca e Mauro Ceruti, Origini di storie, Feltrinelli, Milano, 1993; e, per un commento, Giuseppe O. Longo, Ordine nel caos, La Rivista dei Libri, n. 2, febbraio 1994.
– Capucci, Pier Luigi (a cura di), Il corpo tecnologico, Baskerville, Bologna, 1994.
– Collins, Harry e Trevor Pinch, Il golem tecnologico, Edizioni di Comunità, Torino, 2000.
– Gandolfi, Alberto, Formicai, imperi, cervelli. Introduzione alla scienza della complessità, Casagrande, Bellinzona e Bollati Boringhieri, Torino, 1999.
– Horgan, John, Morte della dimostrazione, Le Scienze, n. 304, dicembre 1993.
– Jonas, Hans, Il principio responsabilità, Einaudi, Torino, 1990.
– Lanzara, Giovan Francesco, La logica del bricolage, presentato al Convegno "Ingegneria e scienze umane," Bologna, 29 settembre 2000.
– Giuseppe O. Longo, Matematica e arte, La Rivista dei Libri, n. 11, novembre 1992.
– Longo, Giuseppe O., L’ambiguità tra scienza e filosofia, Nuova Civiltà delle Macchine, IX, n. 3/4, 1993.
– Longo, Giuseppe O., La simulazione tra uomo e macchina, in La simulazione, a cura di E. Kermol, Proxima Scientific Press, Trieste, 1994.
– Longo, Giuseppe O. e Claudio Magris (a cura di), Ambiguità, Moretti e Vitali, Bergamo, 1996.
– Longo, Giuseppe O., Il nuovo Golem. Come il computer cambia la nostra cultura, Laterza, Roma-Bari, 1998.
– Longo, Giuseppe O., Homo Technologicus, Meltemi, Roma, 2001.
– Marchis, Vittorio, Il bricolage come volontà e rappresentazione, Prometeo, 17, n. 65, marzo 1999.
– Minsky, Marvin, Saranno i robot a ereditare la Terra?, Le Scienze, novembre 1994.
– Moravec, Hans P., Mind Children: The Future of Robot and Human Intelligence, Harvard University Press, 1988.
– Moravia, Sergio, L’enigma dell’esistenza, Feltrinelli, Milano, 1996.
– Ruelle, David, Caso e caos, Bollati Boringhieri, Torino, 1992.
– Varela, Francisco J., Un know-how per l’etica, Lezioni italiane, Fondazione Sigma-Tau, Laterza, Roma-Bari, 1992.
– Zanarini, Gianni, Il libro della natura: una metafora?, presentato al Convegno "La banalità dei saperi: la vittoria di Babele," Forlì, 9-11 novembre 2000.