(Saggio pubblicato sul numero 2/2001 della rivista “Nuova Civiltà
delle Macchine“)
Strano come la scienza che ai vecchi tempi sembrava inoffensiva
si sia trasformata in un incubo che fa tremare tutti
– Albert Einstein, 1954
- Abstract (in English)
- Sommario
- L’avvento di Homo Technologicus
- Il problema ecologico
- Le retroazioni positive
- Conoscenza del corpo e conoscenza della mente
- La paura e la fuga
- La fiducia nella tecnoscienza
- Conclusioni
- Bibliografia
Technology has always had a big role in shaping the intimate nature of man. Today
technological evolution and biological evolution have become striclty intertwined and have
merged into a “bio-cultural” or “bio-technological” evolution which
has set the stage for the appearance of a new species, homo technologicus, a
symbiotic creature where biology meets technology intimately. The increasingly rapid
technological innovation modifies the relationship between science and technology: the
latter becomes more and more important, with epistemological consequences of paramount
importance. The instability created by the positive feedback loops characteristic of the
technological activity is enhanced by the globalisation process, i. e. the weakening of
borders and frontiers. Also the internal, psychological and ethical, limits of mankind are
disappearing, so that rationality, conscious purpose, and efficiency hold sway.
Increasingly, we entrust machines with our functions and structures, so that the
biological basis of man becomes more and more inadequate and the atavic reactions of fear
and avoidance become more and more useless.
La creazione del mondo artificiale ad opera della tecnologia postula
l’avvento di una (pseudo)specie ibrida, Homo Technologicus, una sorta di simbionte
di uomo e di macchina dall’incerto futuro. L’innovazione tecnica sempre più rapida
modifica il rapporto tra conoscenza e azione (tra scienza e tecnologia) a favore della
seconda, con importanti conseguenze epistemologiche. La conoscenza di tipo
mentale-simbolico sembra indebolirsi a favore della conoscenza di tipo
corporeo-manipolativo. L’instabilità dovuta alle retroazioni positive insite
nell’attività tecnoscientifica viene esaltata dalla crescente globalizzazione, cioè
dall’abbattimento dei confini tra i bacini di comunicazione e di scambio. La scomparsa dei
confini esterni si accompagna all’attenuazione dei limiti psicologici ed etici interni:
ciò comporta una preminenza assoluta della razionalità progettuale, dell’arbitrarietà
finalistica e dell’efficienza manipolativa, che spingono al perseguimento di miti arcaici
(onniscienza, onnipotenza, immortalità). La delega tecnologica provoca una crescente
inadeguatezza della componente biologica dell’uomo e vanifica le reazioni istintive della
paura e della fuga. La complessità bio-tecnica soverchiante dell’apparato che si sta
formando impedisce alla scienza di svolgere la sua classica funzione esplicativa e
semplificativa. Intrecciandosi in modo inestricabile con la tecnologia, la scienza diviene
un golem tutt’altro che rassicurante.
1. L’avvento di Homo Technologicus
Le discussioni sulla tecnologia sono spesso segnate da un estremismo
passionale, che si manifesta o come adesione entusiastica alla visione baconiana di un
assoggettamento totale della natura ai bisogni e alle voglie dell’uomo; oppure,
all’opposto, come rifiuto totale dell’intervento umano sull’ambiente, in nome del ritorno
a uno stadio di incontaminata e idillica armonia con la natura. I baconiani sarebbero
pronti a strangolare l’ambiente (e quindi il genere umano) pur di sfruttarlo, mentre gli
arcadi sognano qualcosa che non è mai esistito se non nelle nostre più tenere utopie.
Poiché, comunque, la tecnologia è il destino dell’uomo, più saggia e realistica appare
la posizione di quanti invocano, pur con toni, motivazioni e ricette diverse, la
necessità di un rallentamento della corsa tecnologica, senza tuttavia pretendere di
interromperla. Ma assumere un atteggiamento equanime e distaccato non è facile: troppo
importanti sono gli effetti della tecnoscienza. Per di più questi effetti sono decisi da
pochi e riguardano tutti, e ciò rappresenta una forma di delega che non tutti sono
disposti a concedere.
In ogni caso la tecnologia non è un fenomeno superficiale: al
contrario essa cala in profondità e modifica l’essenza della società che l’adotta e
degli individui che ne fanno parte. Si può addirittura affermare che l’evoluzione della
tecnologia contribuisce potentemente all’evoluzione dell’uomo, anzi è diventata
l’evoluzione dell’uomo. Infatti le due evoluzioni sono intimamente intrecciate in
un’evoluzione “bioculturale” o “biotecnologica”, al cui centro sta una
sorta di simbionte in via di formazione: l’homo technologicus. In questa evoluzione
biotecnologica sono all’opera sia meccanismi darwiniani sia meccanismi lamarckiani, in un
groviglio difficile da sbrogliare. Inoltre questi simbionti si stanno collegando a rete
tra loro per formare una sorta di creatura planetaria, la quale potrebbe costituire
un nuovo stadio evolutivo di tipo supersocietario.
Rispetto alla lentezza dell’evoluzione biologica, l’evoluzione
bioculturale è segnata da mutamenti sempre più rapidi e affannosi, come se mancassero
meccanismi di riequilibrio a frenarne la corsa: i lenti processi collaudati della natura,
che procede per tentativi ed errori, sono qui cortocircuitati da meccanismi di attuazione
grazie ai quali gli adattamenti immediati alle novità tendono a radicarsi subito nella
struttura profonda della società. Questi meccanismi, peraltro, sono segnati da una grande
fragilità, che si contrappone alla robustezza dei prodotti della natura
Poiché la tecnologia (come il corpo), fa parte integrante dell’uomo,
l’homo technologicus non è “homo sapiens più tecnologia”,
bensì “homo sapiens trasformato dalla tecnologia”, dunque è un’unità
evolutiva nuova, sottoposta a un nuovo tipo di evoluzione in un ambiente nuovo. Benché
sia immerso nel mondo naturale e sia quindi soggetto alle sue leggi, il nuovo simbionte
vive anche in un ambiente artificiale, fortemente segnato dalle informazioni, dai simboli,
dalla comunicazione e, sempre più, dalla virtualità.
Questa duplice immersione rispecchia la fase di transizione in cui si
trova oggi l’uomo, il quale vede il futuro con gli occhi, i parametri e i valori del
passato. Siamo incerti tra progresso e conservazione, siamo combattuti tra un nomadismo
avventuroso, alimentato dalla perdita delle certezze antiche, e il rimpianto di un
sedentarismo improntato ai valori stabili della tradizione. Ci sentiamo più padroni del
nostro destino, perché ai ciechi meccanismi dell’evoluzione biologica abbiamo affiancato
quelli consapevoli del finalismo razionale. Ma l’enorme responsabilità di questa
conquistata autonomia ci sgomenta e ci fa a volte rimpiangere i tempi in cui le regole
erano emanate da un’autorità esterna e non erano faticosamente conquistate per essere di
continuo trasgredite.
Inoltre, all’unicità, per quanto discutibile, del prodotto
dell’evoluzione biologica, si sostituisce, con la progettazione razionale, un ventaglio di
possibilità tra cui è difficile scegliere. E le scelte rischiano di rispecchiare gli
interessi di un gruppo di potere più che quelli di tutta l’umanità. Non solo: per le
limitazioni della nostra razionalità computante, i calcoli, le previsioni e le
simulazioni che sostengono il finalismo cosciente possono illuminare gli scenari del
futuro solo per breve tratto di tempo, mentre gli effetti delle decisioni possono essere
durevoli e irreversibili.
Credo che la crisi ecologica, oggi così acuta, nasca da un disadattamento
sistemico, cioè da uno scollamento e opposizione delle componenti del sistema
“uomo-nell’ambiente”. Per comprendere il problema ecologico è dunque
necessario porsi nell’ottica sistemica e adottare l’epistemologia cibernetica o
informazionale, che ha segnato una delle grandi svolte concettuali del Novecento. Mentre
l’epistemologia tradizionale è basata sul riduzionismo e sulla separazione tra le
componenti (in particolare tra osservatore e sistema osservato), la nuova epistemologia
attribuisce un’importanza fondamentale al contesto e all’interazione
retroattiva tra le varie parti.
Benché legate, le due componenti “uomo” e
“ambiente” hanno una certa indipendenza ed è a causa dei gradi di libertà che
ne conseguono che si è via via prodotto il disadattamento di cui parlavo. Infatti, pur
dipendendo dall’ambiente in senso filogenetico e in senso ontogenetico, l’uomo
se ne distacca per la sua capacità unica di creare mondi alternativi, più o meno avulsi
da quello naturale e talora opposti ad esso.
Si può anzi affermare che da sempre l’uomo ricostruisce il
mondo. I metodi, i linguaggi e i materiali variano a seconda che la ricostruzione avvenga
mediante l’arte, la scienza, la letteratura o la tecnologia, ma il fine è sempre
quello: sostituire all’intollerabile complessità del mondo dato l’ordinata e
rassicurante placidità di un mondo artificiale (concettuale o materiale) a misura
d’uomo. E’ una necessità di sopravvivenza, che viene perseguita da sempre
con l’uso degli strumenti. Ecco perché la tecnologia è il destino dell’uomo,
ecco perché l’uomo deve intervenire sul mondo e non può limitarsi a
contemplarlo con la tranquilla neutralità degli altri animali: la complessità e la
raffinatezza del nostro apparato neurosensorio e cognitivo, derivante da un’abnorme
sviluppo della mano e del cervello, non ci consente di accettare senza elaborarla la
stimolazione troppo ricca che ci propone il mondo dato: dobbiamo semplificare,
razionalizzare, ordinare. Per non soccombere dobbiamo costruire dei modelli del mondo:
per questo abbiamo creato i miti, le religioni, le saghe, le teorie scientifiche, le
favole, le poesie e i romanzi. Per questo stiamo ricostruendo, letteralmente, il mondo con
la tecnologia.
L’adattamento dell’uomo all’ambiente è imperfetto:
l’uomo (con la sua inseparabile tecnologia) è una creatura in difetto, la sua
attrezzatura mentale ne fa un essere più del desiderio che della necessità: immerso solo
per metà nel contesto naturale, anela con l’altra metà a staccarsene e a spiccare
il volo. Il disadattamento tra uomo e ambiente riflette quello già presente
all’interno dell’uomo.
La ricostruzione tecnologica pone dunque il problema della compatibilità
tra il mondo dato e il mondo artificiale (questo è il senso dello sviluppo sostenibile).
Mentre nel nostro fervido immaginario il mondo ricostruito si sostituisce a quello dato,
che diventa uno sfondo irrilevante, nella corposa realtà della materia il mondo dato non
cessa affatto di esistere: continua a interagire col mondo artificiale e reclama con forza
i suoi diritti. In questa prospettiva un ricorso sempre più massiccio alla tecnologia per
risolvere il problema ecologico non ha un esito scontato: se la è la tecnologia a
generare il problema, perché vi sia qualche prospettiva di soluzione bisogna quanto meno
scegliere bene il tipo di tecnologia che si adotta. Nasce da qui la proposta delle
cosiddette tecnologie dolci, cioè meno ortogonali ai processi e ai materiali della
natura, più rispettose dei dati di fatto all’interno di una visione più
ampia, olistica, improntata alla “saggezza sistemica.” Il rispetto per la natura
ha dunque un fondamento concettuale forte e non solo una base ideologica o sentimentale.
Invece le nostre tecnologie sono per lo più violente, perché
riflettono caratteri atavici che abbiamo ereditato più o meno intatti: non maneggiamo
più la clava, ma con la stessa aggressività mettiamo in gioco strumenti di potenza
enorme e di portata planetaria. Inoltre i progressi tecnici hanno aumentato a dismisura la
nostra capacità d’intervento sull’ambiente (e sull’uomo) con effetti
spesso traumatici e irreversibili, mentre le nostre capacità di controllo e di previsione
non sono cresciute altrettanto: nel Novecento la scienza è stata superata dalla
tecnologia. Da sempre l’uomo usa strumenti basati più sul bricolage e
l’improvvisazione che su una teoria, ma oggi questo fenomeno è diventato
predominante: esistono interi settori applicativi, come il calcolatore, le reti, ma anche
le biotecnologie e gran parte della medicina di cui non esiste una teoria che consenta di
descriverne il funzionamento o di prevederne gli effetti a lunga scadenza.
Sono almeno due le ragioni che hanno portato al primato
dell’azione sulla teoria: il primo è l’avvento dell’informatica, che ha
sostituito alla pesantezza dell’atomo la leggerezza del bit. Il tradizionale rapporto
di subordinazione del fare rispetto al dire si è rovesciato: oggi è molto più facile
simulare un prodotto o un sistema e passare poi alla sua attuazione che costruirne una
teoria formale e astratta. Si sperimenta in vivo e non più in vitro.
L’altro fattore è il mercato: facilità di comunicazione e globalizzazione economica si
sono alleate alla brama di profitto per imprimere al sistema complessivo un’accelerazione
alla quale non è certo esso possa resistere indenne.
Tra tutte le specie viventi, la nostra è l’unica capace di produrre
fenomeni governati da retroazioni positive, in cui cioè la crescita del prodotto
di una certa attività comporta un aumento di quell’attività. Tipici in questo senso sono
la crescita demografica, la corsa agli armamenti, l’innovazione tecnologica. Le
retroazioni positive minacciano la stabilità, anzi l’integrità e l’esistenza stessa del
sistema in cui si presentano e, se non intervengono altri meccanismi di stabilizzazione,
possono portare al suo collasso.
La costruzione di macchine e sistemi sempre più potenti ha travasato
nel mondo l’instabilità tipica del cervello umano, instabilità che si manifesta in quei
continui sommovimenti, valanghe e terremoti che, soggettivamente, percepiamo come
“idee.” La prospettiva sistemica c’insegna che la destabilizzazione ha una base
cibernetica, poiché deriva da un sostanziale indebolimento, o addirittura scomparsa,
delle retroazioni negative che di solito rendono stabile un sistema complesso,
riportandolo in una condizione di equilibrio quando sia perturbato da un agente esterno
(omeostasi). Le retroazioni negative sono spesso innescate da fattori estranei alla nostra
volontà, che riguardano soprattutto le limitazioni delle risorse alle quali possiamo
attingere.
Ogni perturbazione esterna, se non è tanto forte o rapida da
distruggere il sistema, provoca un cambiamento dei valori delle variabili che lo
definiscono. Ma le variabili non sono tutte altrettanto importanti (ad esempio in un
organismo il tasso di ossigeno nel sangue è più importante della frequenza respiratoria)
e le variabili meno importanti si modificano in modo da mantenere i valori di quelle più
importanti all’interno di intervalli opportuni, compatibili con la sopravvivenza del
sistema. Infatti ogni variabile ha una soglia di tolleranza superiore e una inferiore,
oltre le quali il sistema comincia a manifestare malessere e patologia e può giungere
anche alla morte. Entro questi limiti la variabile può modificarsi per conseguire
l’adattamento. Se, sotto costrizione, una variabile deve assumere un valore prossimo a uno
dei suoi limiti di tolleranza, si può dire che il sistema manca di flessibilità
sotto questo profilo.
Se alcune delle variabili meno importanti vengono fissate e non possono
modificarsi, può accadere che, sotto la spinta della perturbazione, le variabili
essenziali subiscano variazioni eccessive, incompatibili con la sopravvivenza del sistema
(l’acrobata che non possa cambiare la posizione del bilanciere rischia di cadere, cioè di
non poter mantenere la sua variabile vitale “cammino sopra la fune” entro i
limiti compatibili con la propria sopravvivenza).
Siccome le variabili sono interconnesse, se una variabile è prossima
ai suoi limiti di solito le altre non possono modificarsi senza esercitare una pressione
su quella particolare variabile: dunque la perdita di flessibilità si diffonde in tutto
il sistema. In casi estremi il sistema accetta solo quei mutamenti che portano a una
modifica delle soglie di tolleranza della variabile sofferente (per esempio una società
soffocata dal traffico automobilistico introduce mutamenti, per esempio un allargamento
delle autostrade, che possono rendere più accettabili le condizioni di congestione, le
quali tuttavia restano patologiche e patogene). Queste modificazioni ad hoc,
proprio perché rendono tollerabile una patologia senza eliminarla, alla lunga possono
indurre patologie ancora più fondamentali.
Su questo quadro di carattere generale, la globalizzazione ha
grandiosi effetti moltiplicatori, poiché elimina una delle barriere più forti e
terapeutiche nei confronti dell’instabilità: i confini. I confini sono un caso
particolare di limite, e il limite si oppone all’eccesso. Come diceva Gregory Bateson, al
di là di un certo valore ogni variabile, anche la più benefica, diviene tossica. Di
fronte allo smarrimento creato dall’illimite, di fronte al risucchio esercitato dal
baratro, di fronte alla vertigine che spira dalla vastità sconfinata, l’unica salvezza è
rappresentata dall’atavico rifugio della tana, della casa, della patria: lo spazio chiuso
e limitato che come un alvo materno ci protegge e circonda.
Invece, cadendo i confini, si spalanca una grandiosa cassa di risonanza
dove tutti gli effetti, tutti i fenomeni, tutte le variazioni acquistano una velocità
sempre maggiore e si propagano con furia rapinosa. Si passa così da un regime laminare a
un regime vorticoso, da un andamento lineare a uno caotico, per cui gli effetti non sono
più proporzionali alle cause che li hanno prodotti, ma possono essere smisurati. A questo
proposito il meteorologo Edward Lorenz coniò la locuzione “effetto farfalla”:
basta il battito delle ali di una farfalla nei Caraibi per scatenare un tifone nel Mar
della Sonda.
E la velocità ci costringe alla delega tecnologica, cioè ad
affidare sempre più azioni e, ben presto, anche decisioni, alle macchine (e non solo agli
specialisti umani). Anche la delega tecnologica è retta da una forte retroazione
positiva: più si delega più si dipende dalle macchine e più si dipende dalle macchine
più si delega.
Insieme con la velocità, aumentano anche l’ampiezza e l’intensità
dei fenomeni; poiché l’ampiezza dipende dall’energia che può essere messa in gioco, la
caduta dei confini mette a disposizione di ciascun processo non la scarsa energia
ricavabile da una regione limitata, ma quella enorme prodotta dal globo intero. E i
fenomeni vincenti, quelli che soppiantano gli altri e trionfano, diventano sempre più
intensi e possono portare alla catastrofe. Di fronte a tutto ciò si prova la sensazione
di essere di fronte a un’aleatorietà incontrollabile e pericolosa. Un esempio è
l’andamento dei mercati finanziari, che la globalizzazione ha reso interdipendenti e che
sono soggetti a variazioni difficili da capire, da prevedere e da regolare.
4. Conoscenza del corpo e conoscenza della mente
Una delle conseguenze forse più sorprendenti della tecnologia, in
particolare della tecnologica dell’informazione, è un tendenziale mutamento del nostro
modo di conoscere e di apprendere. Il sistema o macchinario conoscitivo dell’uomo ha due
modalità essenziali di funzionamento. La prima, più antica sotto il profilo sia
filogenetico sia ontogenetico, è la conoscenza tacita, globale e immediata attuata dal
corpo, nella sua struttura e nelle sue funzioni biologiche. E’ una modalità di conoscenza
che risale a 30 o 40 milioni di anni fa e dall’evoluzione è stata portata a livello
profondo: è “cablata” nella biologia dell’individuo. La seconda, molto più
recente sotto il profilo evolutivo (risale a circa centomila anni fa) e posteriore nello
sviluppo dell’individuo, è la conoscenza esplicita, attuata nelle forme della logica
astratta e in genere nella razionalità. Si potrebbe anche dire che la prima è una
conoscenza biologica, o “naturale”, che si attua nel corpo e tramite il corpo;
la seconda, di tipo simbolico o “artificiale”, si attua nella mente e tramite la
mente. Più lunga è la storia evolutiva di una modalità di conoscenza più profonda è
la sua collocazione e più inconsapevole e immediato è il suo uso.
Gran parte dell’attività di un essere vivente, anche umano, consiste
in un’attivazione inconsapevole delle mappe profonde, che rappresentano abilità,
acquisite per via filogenetica e perfezionate per via ontogenetica, che consentono
all’essere vivente di mantenersi in una condizione di equilibrio omeostatico con
l’ambiente. E’ in gran parte un susseguirsi immediato, avulso da ogni deliberazione
riflessa, calcolata e cosciente di azioni già pronte e “cablate” nella
struttura stessa dell’organismo. Queste modalità sono alla base dell’apprendimento
sensibile o corporeo, che si attua attraverso l’imitazione e l’esperienza, e mediante il
contatto diretto del corpo con l’ambiente.
Al sommo di questa attività conoscitiva e attiva è poi spuntata
l’attività mentale, astratta, mediata dalla simulazione interna e, da circa 5000 anni,
dalla scrittura. Così alla conoscenza e all’apprendimento corporeo, esperienziale,
si sono venuti affiancando la conoscenza e l’apprendimento simbolici, che in pochi secoli
è diventato predominante, tanto da trovare posto in una delle istituzioni sociali più
importanti: la scuola.
Orbene, la storia della scienza occidentale è in fondo un lungo
tentativo di trasferire o tradurre le conoscenze dalla prima alla seconda
modalità, cioè dalla conoscenza biologica incarnata nel corpo (corpo che a sua volta è
immerso nell’ambiente) a una razionalità disincarnata. E l’apprendimento, che un tempo si
basava su pratiche manipolative dirette che coinvolgevano i sensi, è diventato sempre
più un apprendimento mediato dai testi. Anche oggi tuttavia l’apprendimento e la
conoscenza del primo tipo sono fondamentali: nell’era della lettura non basta leggere il
manuale per imparare a usare un computer o un videoregistratore, anzi quasi nessuno parte
dal manuale: di solito parte da un contatto diretto con lo strumento e da una serie di
tentativi di cui si osservano gli esiti, scartando quelli negativi e rinforzando quelli
positivi.
Che i due tipi di conoscenza e di apprendimento siano diversi lo si
capisce confrontandoli: il modo simbolico richiede attenzione e consapevolezza, quello
corporeo è spontaneo; di conseguenza il primo è faticoso, il secondo è gradevole come
un gioco. Gran parte dell’istruzione scolastica mira a rendere automatica (quindi
immediata e non faticosa) la conoscenza simbolica, cioè a far calare le sue mappe a
livello inconscio. Ci sono quindi due tendenze: la prima vuole rendere esplicite e
simboliche tutte le conoscenze biologiche tacite; l’altra, attraverso l’addestramento
scolastico, vuole rendere le conoscenze esplicitate naturali e irriflesse come quelle
corporee.
Fino a che punto può riuscire il primo movimento? Cioè fino a che
punto è possibile tradurre le conoscenze implicite in conoscenze esplicite, simboliche?
Per quanto strenuo e volonteroso, il tentativo incappa nell’ostacolo tipico di ogni
processo di traduzione, cioè l’incompletezza. Rimane pur sempre un residuo
ostinato, una cicatrice insanabile che ricorda come la traduzione sia un’impresa
impossibile, perché vorrebbe o dovrebbe essere un’applicazione totale del mondo su sé
stesso.
Comunque la tecnologia, anche quella in apparenza più astratta e più
legata alla mente, quella informazionale, si salda in modo forte e immediato con la
modalità conoscitiva di tipo corporeo, mentre la scienza è legata alla modalità di tipo
mentale. Siamo fatti per la tecnologia. Ecco perché la tecnologia è “facile” e
la scienza è “difficile”: ecco perché la tecnologia tende a riportare in auge
la conoscenza corporea a scapito di quella mentale. Ecco, infine, perché oggi la scuola,
sede per eccellenza della conoscenza di tipo simbolico-mentale, entra in crisi: perché è
circondata, quasi assediata, da un mondo in cui l’altro tipo di conoscenza riemerge con
prepotenza. Come si vede, l’avvento della tecnologia ha conseguenze epistemologiche
profonde. E la crisi non riguarda solo l’apprendimento scolastico: riguarda la modalità
conoscitiva simbolica nel suo complesso, in particolare riguarda il tipo di scienza cui
siamo abituati da almeno tre secoli. Questa scienza è forse destinata a scomparire? O a
trasformarsi in una scienza diversa, molto più integrata con la corporeità, da cui in
passato ha voluto distaccarsi a tutti i costi? Sono domande sulle quali conviene
riflettere.
La velocità crescente consentita dalla tecnoscienza aumenta in modo
perverso i rischi derivanti dalla nostra ignoranza. E’ vero che le conoscenze complessive
dell’umanità sono via via aumentate, ma è vero anche che la nostra ignoranza è
aumentata di pari passo e l’uso di una tecnologia potente e rapida, che dà sempre
meno spazio al momento della riflessione, può moltiplicare i pericoli cui l’ignoranza ci
espone.
A questi pericoli, che piombano su di noi con enorme velocità,
potrebbe far fronte non la ragione computante, con la sua lentezza farraginosa, ma un
istinto rapido e sicuro, collaudato da una lunghissima evoluzione: la paura. E’ la
paura che nel corso dei millenni ha salvato la specie umana dall’estinzione, perché di
fronte a una situazione nuova e indecifrabile la reazione salvifica è quella della fuga
o di altre condotte dettate dal timore (ricordo che Henri Laborit aveva scritto un
bellissimo Elogio della fuga). La paura ha dunque avuto un enorme valore di
sopravvivenza per la nostra specie (come per molte altre). Oggi tuttavia questa funzione
nei confronti dell’integrità del corpo e del suo benessere si è attenuata. E i motivi
sono sostanzialmente due.
Da una parte la società umana è sempre più complessa, integrata e
omologata, perciò gli spazi di fuga sono sempre più esigui: dappertutto s’incontrano le
stesse condizioni e le stesse difficoltà. Per effetto della globalizzazione, i fenomeni
pericolosi si propagano con enorme rapidità e in aree sempre più vaste (mucca pazza,
afta, aids…) invadendo le zone di rifugio. Perciò le reazioni di fuga dettate dalla
paura sono poco efficaci: non si sa più dove fuggire. Allo stesso tempo le reazioni
collettive di fronte a certe situazioni sono dettate più dalla sicumera, spesso
interessata, degli specialisti che dal timore delle persone comuni. Ciò corrisponde a un
ottundimento dell’istinto di sopravvivenza a livello societario.
Il secondo motivo ha a che fare in modo ancora più diretto con
l’evoluzione tecnologica: la reazione di paura si può scatenare solo di fronte a
situazioni che vengano riconosciute pericolose almeno a qualche livello, consapevole o
inconsapevole. Parecchi animali, per esempio, sono dotati di reazioni istintive di
evitamento e di fuga anche in assenza di esperienze precedenti: tipico è il terrore
scatenato dai serpenti nelle scimmie anche di pochi giorni. Ma nella nostra civiltà
tecnologica sono molte le situazioni di potenziale pericolo che presentano un aspetto
assolutamente innocuo.
Nessun essere umano, per esempio, è in grado di rilevare la presenza
di campi elettromagnetici a radiofrequenza o di radiazioni ionizzanti, quindi nessuno può
adottare con immediatezza le reazioni suggerite dalla paura. E ciò vale in molti altri
casi. La nostra evoluzione ci ha reso sensibili a certi tipi di pericoli
“naturali”, ma oggi si sono moltiplicati i pericoli “artificiali” che
solo gli strumenti tecnici sono in grado di rilevare. Insomma solo l’homo technologicus,
cioè l’uomo profondamente integrato di tecnologia, sarebbe sensibile ai pericoli nuovi
(si tratta di un ulteriore aspetto della delega tecnologica).
E talora non bastano neanche gli strumenti dell’homo technologicus:
la globalizzazione, l’accelerazione e la natura non lineare delle conseguenze dei
costrutti e dei processi artificiali situano a volte i pericoli in un futuro inaccessibile
anche alle tecniche di previsione più raffinate. Ciò vale ad esempio nel caso degli
organismi transgenici: nessuno può fare previsioni sui loro effetti a media o a lunga
scadenza, neppure se si munisce dei sistemi di previsione e di studio più accurati. Del
resto la storia è piena di esempi di “imprevisione” dei pericoli connessi
all’impiego di una tecnologia.
In questi casi la paura di fronte all’ignoto può assumere l’aspetto
dell’ideologia o del mito: forse sono di questa natura il timore che ispira l’uso civile
dell’energia atomica o la diffidenza nei confronti degli organismi biotecnologici. E’ come
se la paura venisse sublimata in un tabù, che non è possibile infrangere se non a patto
di destabilizzare il rapporto con il sacro e sul quale nessuna argomentazione razionale
può aver presa.
6. La fiducia nella tecnoscienza
Infine, qualche parola sulla fiducia illimitata che molti nutrono nella
scienza e nella tecnica. Solo la tecnoscienza, sostengono costoro, può salvarci dagli
effetti perversi della tecnoscienza. Si tratta, ancora una volta, del ricorso a una
retroazione positiva, quindi destabilizzante, anche se non si può escludere, a un certo
momento, l’intervento di qualche meccanismo di riequilibrio. E’ a causa di questi
meccanismi di delega sempre più spinta che la tecnoscienza moderna tende a svincolarsi
dal nostro controllo.
Il golem è una metafora frequente quando si parla della
tecnoscienza, cioè di un’impresa che, concepita dall’uomo per il proprio
vantaggio, talora gli sfugge di mano con effetti disastrosi. La classica distinzione tra
scienza e applicazioni oggi sfuma sempre più e viene sostituita da un rapporto articolato
e faticoso. Soprattutto per effetto degli investimenti, il passaggio dal laboratorio al
mercato si compie in tempi brevissimi: se da una parte il denaro accelera tutto ciò in
cui si riversa, dall’altra oggi tende ad alimentare solo le ricerche che promettono
applicazioni a breve. Ciò ha portato, nel Novecento, al sorpasso della scienza da parte
della tecnica.
Per i Greci conoscere qualcosa significava possederne una teoria
esplicita e precisa. L’Occidente ha ereditato questa propensione per la razionalità
esplicita e per la precisione teorica e ha sempre reputato l’intelligenza
speculativa, che costruisce i teoremi della matematica o gli edifici della metafisica,
superiore all’intelligenza pratica, che ci consente di attraversare incolumi una
strada o di guidare un’automobile nel traffico cittadino. Il culmine della scienza
occidentale viene raggiunto con la formalizzazione matematica.
Oggi le cose sono cambiate. La tecnica, specie quella legata
all’informazione e alla biologia, si sviluppa in modo così rapido e tumultuoso che
la teoria non riesce più a starle dietro. La velocità e la complessità della
tecnologia impediscono alla scienza di tracciarne un quadro esplicativo coerente e
completo e di fornire risposte certe ai problemi applicativi. La nostra capacità di
agire, inducendo cambiamenti durevoli e talora irreversibili, è ormai molto più
sviluppata della capacità di prevedere gli effetti dei nostri interventi.
L’intricato rapporto tra scienza e tecnologia va inquadrato in una
realtà fatta di pesantezze materiali e di difficoltà attuative: è necessario mettere in
luce il groviglio inestricabile di giudizi a priori, ricostruzioni razionali,
semplificazioni teoriche, implicazioni sociali ed economiche in cui la tecnoscienza si
trova sempre più inviluppata. Da lontano tutto sembra semplice e chiaro, ma quando ci si
occupa dei minuti particolari, cioè si passa dal “dire” al “fare”,
nascono problemi spesso insolubili. Vista da vicino, la tecnologia è così complessa che
la scienza ha poco da dire. Per tradizione, dalla scienza ci si aspettano risposte forti e
chiare (come indica l’abuso irritante dell’aggettivo “scientifico”),
mentre qualunque problema reale ammette una pluralità di soluzioni, prove e
interpretazioni, ciascuna delle quali contiene una parte di verità e, insieme, può
essere smontata e confutata in un tribunale, cioè nel luogo in cui la parola
dell’esperto deve venire a patti con la parola degli altri e con la vita e col
destino delle persone.
Ne segue una delusione nei confronti (dell’immagine romantica)
della scienza che non può lasciarci indifferenti, ma che non deve neppure farci
vagheggiare il ritorno a un grembo materno e rassicurante che ci protegga
dall’errore. Bisogna accettare l’incertezza intrinseca del nostro rapporto col
mondo e vivere nello stretto margine tra la rigidità e il caos, altrimenti il giudizio
sulla tecnoscienza oscilla sterilmente tra perfezione e fallimento. Non esistono soluzioni
certe e ogni decisione è frutto di un compromesso; i modelli matematici non possono
sostituire del tutto una lunga esperienza sul campo (e viceversa); l’analisi dei
calcoli non fornisce una scala di accettabilità dei rischi.
Insomma, per affrontare il mondo occorre complessificarne la visione,
analizzare i problemi da vicino, collocandoli nel loro contesto socioculturale (e morale)
più ampio e non bisogna cadere nella tradizionale dicotomia del vero e del falso tanto
cara agli specialisti.
Nell’ibrido Homo technologicus le componenti biologica e
artificiale sono eterogenee, e ciò provoca un disadattamento che può generare
sofferenza. La scoperta dell’arbitrarietà dei codici ha sconvolto i legami tradizionali
tra uomo e natura che si esprimevano nell’estetica e nell’etica. Il semplice tecnologico
scalza il complesso biologico e nell’uomo si assiste a un continuo indebolimento della
complessità, della base biologica e della diversità. Ciò accade anche a livello
mondiale con la semplificazione indotta dal prevalere della “mente collettiva”
incarnata da Internet sulla mente “individuale”. Siamo davvero in un’epoca di
grandi mutamenti, di fronte ai quali sarebbe opportuno adottare una guardinga cautela
piuttosto che l’ansiosa fretta cui ci spinge il mercato. Bisognerebbe tentare di
richiudere i cicli e di respingere per quanto possibile le tentazioni della finalità
consapevole e lineare.
Si tratta di rivalutare i contesti, la storia, le tradizioni,
l’espressività, il corpo, le emozioni, temperando l’esasperazione della razionalità
computante e rinunciando all’efficienza ad ogni costo, eliminando per quanto possibile la
mediazione della tecnologia e tornando all’immediatezza dei rapporti e al contatto
personale e corporeo. Bisognerebbe insomma recuperare una visione globale, valoriale,
armonica del mondo e di noi nel mondo, capace di esprimere valori autenticamente ecologici
secondo il dettato di Gregory Bateson. Si tratta di non sacrificare all’avidità e al
consumo gli elementi fondamentali per la salute psicofisica della persona, che individuo
in quattro “e:” estetica, etica, emozione, espressione, quattro
“e” tra loro legate da una storia evolutiva e culturale che non può e non deve
essere cancellata.
Giuseppe O. Longo
(Ordinario di Teoria dell’Informazione all’Università di Trieste)
Bibliografia
– Bateson, Gregory, Verso un’ecologia della mente, Adelphi, Milano,
seconda edizione ampliata, 2000.
– Bateson, Gregory e Mary Catherine Bateson, Dove gli angeli esitano,
Adelphi, Milano, 1989.
– Collins, Harry e Trevor Pinch, Il golem tecnologico, Edizioni di
Comunità, Torino, 2000.
– Jonas, Hans, Il principio responsabilità, Einaudi, Torino, 1990.
– Longo, Giuseppe O., Il nuovo golem. Come il computer modifica la
nostra cultura, Laterza, Roma-Bari, 1998.
– Longo, Giuseppe O., Di fronte alla tecnologia, Nuova Civiltà
delle Macchine, XVIII, n. 4, 2000, pagg. 90-101.
– Longo, Giuseppe O., Intelligenza della mente e intelligenza del corpo,
Studium, anno 96, maggio-agosto 2000, n. 3/4, pagg. 509-531.
– Longo, Giuseppe O., Homo technologicus, Meltemi, Roma, 2001.
[ * ] La rivista “Nuova Civiltà delle Macchine” è edita da Rai –
Eri. Sul numero 2/2001, oltre a questo saggio di Giuseppe Longo, sono stati pubblicati
scritti di: Vittorio Marchis, Paolo Rossi, Massimo Negrotti, Silvano Tagliagambe, Pasquale
Rotunno, Sergio Carrà, Renato A. Ricci. La rivista è diffusa per abbonamento postale e
nelle principali librerie. Per abbonarsi scrivere o telefonare all’agenzia Licosa, via
duca di Calabria 1/1 – 50125 Firenze ; tel 055 64831 ; fax 055 641257.