Per una concomitanza curiosa e forse significativa, nel 1986, proprio nell’anno passato tristemente agli annali per la catastrofe di Chernobyl, il sociologo tedesco Ulrich Beck pubblicò un libro destinato ad avere grande risonanza: La società del rischio. Beck sosteneva che nella seconda metà del Novecento la natura dei rischi tecnologici ha subito una trasformazione radicale. In tutte le società, anche nelle più primitive, l’attività umana è sempre stata accompagnata da rischi, ma a cominciare dagli anni Settanta del secolo scorso la loro natura è cambiata: da locale è diventata globale, con conseguenze di gravità incommensurabile.
In passato un incidente nei processi produttivi poteva provocare vittime su scala ridotta, e comunque sempre tra gli addetti ai lavori; oggi invece, con l’avvento della chimica industriale di sintesi e con lo sfruttamento dell’energia nucleare, sempre più la minaccia riguarda un numero elevatissimo di persone, che in gran parte non hanno nulla a che fare con il processo di produzione.
Inoltre, sottolinea Beck, i rischi tecnologici non sono più soltanto conseguenza di errori accidentali, ma sono intrinseci ai processi di produzione, e quindi ineliminabili: ciò è dovuto soprattutto alla complessità e alla conseguente fragilità della tecnologia. Più un apparato è complesso più è facile che si guasti (se un dispositivo non c’è non si rompe). Inoltre, per la naturale taccagneria degli imprenditori e degli umani in genere, si tende ad evitare le costose protezioni delle apparecchiature più delicate e vitali. Si osservi, per converso, che i processi naturali sono caratterizzati da forti dosi di ridondanza, cioè da abbondanti strutture di riserva. Per esempio il cervello può subire incidenti e menomazioni anatomiche anche notevoli senza che le sue prestazioni siano compromesse, proprio per l’abbondanza di circuiti vicarianti. Ma la ridondanza costa e l’uomo tende a risparmiare, quindi a non cautelarsi contro i guasti: si genera così una miscela di elevata complessità e di scarsa protezione che si traduce in fragilità, dunque in un’alta probabilità di incidenti.
E al contrario dei rischi di una volta, che si annunciavano pungendo pelle e naso, quelli nuovi sono spesso inodori, insapori e incolori (come dovrebbe essere, e spesso non è più, l’acqua potabile!): si pensi alla contaminazione radioattiva, che solo gli strumenti possono rivelare. Insomma, oltre che la produzione, stiamo delegando alla tecnologia anche il rilevamento del rischio tecnologico.
Il caso Seveso
Più di trent’anni fa, alle 12,37 del 10 luglio 1976, nell’impianto chimico dell’ICMESA di Meda, in Brianza, appartenente al gruppo Hoffmann-La Roche, avviene un incidente. La temperatura di un reattore sale fino a 500 gradi centigradi: la valvola di sicurezza si apre e fa uscire una nube di gas. La fuga dura circa mezz’ora, poi gli operai di una ditta che sta eseguendo lavori all’ICMESA (è sabato e gli addetti all’impianto sono assenti) riescono a bloccare la perdita agendo sul dispositivo di raffreddamento. Informata dell’accaduto, la direzione consiglia agli operai di farsi una doccia e di andarsene a casa.
La nube rilasciata dal reattore contiene un derivato della diossina, il TCDD (2,3,7,8-tetracloro-dibenzo-p-diossina), che è uno dei composti chimici più pericolosi che esistano. In poche ore il gas si diffonde in un’area piuttosto vasta, che comprende il comune di Seveso. La direzione dell’ICMESA informa i carabinieri dell’incidente, ma poiché assicura che “tutto è sotto controllo” non scatta nessun allarme. Il giorno seguente l’azienda avverte le autorità locali di una perdita di erbicida, ma non fa alcuna menzione della diossina.
Il lunedì 12 luglio alcuni abitanti di Seveso manifestano irritazioni della pelle e compaiono, soprattutto tra i bambini, i primi casi di cloracne, un’eruzione cutanea provocata dal contatto con la diossina cloridrata. Gli operai riprendono comunque il lavoro, e per quattro giorni, nonostante le loro domande, nessuno li informa del pericolo. Ma lì intorno gli animali muoiono e i raccolti appassiscono: si fa strada il sospetto che sia accaduto qualcosa di grave. Il 14 luglio i sanitari prelevano campioni di terreno per esaminarli. Il 16 gli operai si rifiutano di entrare in fabbrica. La produzione viene bloccata: non riprenderà mai più.
Due settimane dopo l’incidente, il 24 luglio, comincia lo sgombero e settecentotrenta persone vengono allontanate dall’area contaminata, i cui confini sono piuttosto incerti. E, del resto, l’elemento che caratterizza tutta la vicenda è proprio l’incertezza: sulle cause, sulla gravità, sulle conseguenze, sulla durata prevedibile di un’emergenza causata da una sostanza non ben identificata. Gli esperti forniscono ricostruzioni e interpretazioni contrastanti, elaborano ipotesi contraddittorie e suggeriscono rimedi che rischiano di aggravare la situazione: all’inizio si pensa di usare gli idranti per disperdere o diluire la diossina, ma si scopre che questa sostanza è insolubile in acqua e che la pioggia, accolta come la manna dal cielo, rischia solo di inquinare le falde idriche. Dopo l’acqua, il fuoco: si pensa di bruciare i campi intorno a Seveso con il napalm, ma per fortuna ci si accorge in tempo che il fuoco libererebbe altra diossina.
E ignota resta tuttora la quantità di diossina sprigionata: in principio si era parlato di 300 grammi, col tempo si propende per qualche chilogrammo, forse 15, forse 18. Oggi si sa che il TCDD è un composto terribilmente tossico e cancerogeno, che si accumula nel tessuto adiposo senza poter essere smaltito e può provocare danni irreversibili a fegato, reni, cuore e sistema nervoso. Riduce la fertilità e può causare malformazioni al feto. E, come accade in casi del genere, questa sostanza si ammanta di riflessi minacciosi, che nell’immaginario collettivo assurgono alle dimensioni del mito, rievocando memorie di lontani castighi: pestilenze, carestie, piaghe e contagi. La natura e gli effetti sulla salute e sull’immaginazione sono paragonabili, su scala minore, a quelli della radioattività che dieci anni dopo, il 26 aprile 1986, si sprigionerà a Chernobyl. Per la diossina, come per la contaminazione radioattiva, non si conoscono antidoti efficaci. I loro effetti maligni sono accompagnati dall’invisibilità, il loro potere devastante è agevolato da una penetrazione indolore.
Rischio e consapevolezza
A proposito di radioattività, se l’incidente di Chernobyl fu dovuto a una sfortunata combinazione di incompetenza umana e di intrinseca fragilità dell’impianto, che dire degli esperimenti nucleari americani, inglesi, russi, francesi, cinesi e via esplodendo, che per molti anni hanno deliberatamente inquinato vaste zone del globo e scaricato nell’atmosfera enormi quantità di polveri radioattive? I primi furono effettuati dagli Stati Uniti nel 1946 sull’atollo di Bikini (un nome scanzonato, che ci ricorda i primi costumi da bagno a due pezzi, così chiamati forse per esorcizzare il mostro che si stava scatenando in quelle ridenti plaghe del Pacifico). Ma non bisogna dimenticare quelli britannici condotti in Australia del Sud, a partire dal 1956, nella zona di Maralinga (che significa “piana del tuono”), al centro del grande deserto Victoria, che comportarono la deportazione in massa degli aborigeni e la devastazione per radioattività di una vasta area.
Pare che gli anni della seconda metà del Novecento che finiscono con la cifra 6 siano stati portatori di molte sciagure: Chernobyl nel 1986, Bikini nel 1946, Maralinga nel 1956, e poi Seveso e il terremoto del Friuli nel 1976. Se Chernobyl e Seveso illustrano il carattere inerentemente catastrofico della tecnologia avanzata, ma anche il colpevole intreccio di omertà, incompetenza e trascuratezza che spesso circonda gli incidenti, Bikini e Maralinga simboleggiano la volontà di subordinare la salute della popolazione e dell’ambiente agli interessi politici e militari. Come si è visto sopra nel caso dell’incidente di Seveso, anche negli altri tre casi si potrebbe rilevare un uso distorto e tendenzioso dell’informazione (o del silenzio) e una profonda ignoranza delle (o indifferenza per le) possibili conseguenze negative dell’attività umana.
Come tutti i terremoti, anche quello del Friuli rientra nella categoria dei disastri naturali, che sono sempre esistiti, ma le cui devastazioni vengono oggi spesso moltiplicate per la fragilità di un ambiente degradato e compromesso da un’attività umana eccessiva, miope e frenetica. A loro volta i rischi artificiali acquistano sempre più il carattere ineluttabile di quelli naturali perché la tecnoscienza procede a velocità convulsa e, come si è detto, i responsabili non adeguano le norme di sicurezza alla fragilità e alla pericolosità degli impianti.
D’altra parte il moltiplicarsi dei rischi, l’avvento di rischi inediti e l’enormità delle loro conseguenze, che possono coinvolgere gran parte dell’umanità e anche le generazioni future, hanno prodotto e acuito la nostra consapevolezza, e anche questa è una grande novità rispetto al passato. Oggi sappiamo di essere attori ecologici decisivi in un contesto dinamico e delicato, in cui le nostre azioni si caricano di responsabilità. La tecnoscienza è diventata un fattore di cambiamento globale ed essenziale, perciò si colora di forti valenze emotive, sia positive (speranza ed entusiasmo) sia negative (paura e minaccia), che contribuiscono a creare un contesto ben più ampio di quello strettamente tecnoscientifico.
Per esempio, nel settore della genomica nuovi strumenti sono in grado di cambiare la nostra identità, di agire sui meccanismi fini della procreazione, di inventarci un futuro di individui e di specie svincolato da ogni condizionamento. Per la prima volta l’uomo, invece di riprodursi, è capace di prodursi secondo specifiche precise. Ma questa enorme potenza operativa non è sorretta da un’adeguata capacità analitica che ci consenta di prevedere le conseguenze, talora irreversibili, delle nostre azioni (Kirby).
Molti, consapevoli dei rischi, invitano alla prudenza, il dibattito si allarga e si complica, alcuni invocano il principio di precauzione, da altri ferocemente contestato. Tutti i punti di vista sono parziali, quindi tutti gli attori sono titolari di interessi o di ideologie di parte anche quando non li dichiarano o addirittura non ne sono consapevoli. Le strumentalizzazioni sono all’ordine del giorno, e i media, per amor di notizia, da una parte cantano in coro le giaculatorie ireniche, dall’altra amplificano gli allarmismi fino all’isteria.
Ma l’accresciuta consapevolezza dei rischi non si accompagna a una capacità di controllo altrettanto sviluppata: si moltiplicano le tavole rotonde, le discussioni, i convegni, si assiste a un dibattito senza precedenti in cui opinioni contrastanti vengono messe interminabilmente a confronto, ma le conseguenze pratiche (cioè le iniziative politiche) di tutto questo dibattere sono lente ed esitanti, confermando la difficoltà di inserire nel contesto socioeconomico esistente la nozione aggiornata di rischio. Ne è un esempio il dibattito amplissimo sui cambiamenti climatici, sull’effetto serra e sul riscaldamento globale, che ha faticosamente prodotto alcuni protocolli internazionali cui molti Paesi sono riluttanti ad adeguarsi (e altri non ci riescono proprio).
A questo proposito, c’è da dire che il diffondersi della consapevolezza, se non è accompagnato da provvedimenti concreti rischia di ingenerare angoscia: allora, paradossalmente, è meglio non sapere e vivere alla giornata. All’opposto, si può anche giungere a una sorta di assuefazione rassegnata. Del resto la rassegnazione è la cifra corrente e diffusa di fronte ai rischi “piccoli” e ripetuti: le morti per infortuni sul lavoro o per incidenti stradali o aerei, la perdita di sostanze tossiche (fosforo, cloro e via dicendo) da treni o camion, i versamenti di petrolio grezzo in mare dalle navi cisterna, e via enumerando.
E’ anche curioso notare come la stragrande maggioranza di noi è del tutto ignara o incurante dei molti rischi naturali che potrebbero distruggere il pianeta da un momento all’altro o con crudele lentezza (McGuire ne elenca parecchi, tra cui urto con asteroidi e comete, grandi eruzioni, superterremoti, riscaldamento o glaciazione globali). E’ un altro esempio di rimozione inconsapevole compiuta per non vivere in uno stato continuo di angoscia paralizzante.
Il rischio di attentati
Negli ultimissimi anni il problema del rischio si è arricchito di una dimensione nuova. Dopo l’attacco alle Torri Gemelle dell’11 settembre 2001, gli attentati a strutture complesse e fragili, in cui si concentrano grandi quantità di persone, energia, informazione e altre risorse, sono usciti dal campo delle possibilità astratte per entrare nella realtà concreta. Questa realtà riguarda in modo particolare le grandi centrali per la produzione di energia, una risorsa della quale sembra che il genere umano abbia una sete inestinguibile. Consideriamo un esempio che, per quanto non abbia avuto carattere terroristico, ha tuttavia messo in evidenza ancora una volta la vulnerabilità dei grandi impianti energetici.
Il forte terremoto che colpì il Giappone nel luglio 2007 provocò anche un incidente nella centrale nucleare di Kashiwazaki-Kariwa, la più grande del mondo. Dopo alcune ore di silenzio e vari dinieghi, la società che gestisce il colosso ammise l’ “evento”, sia pur minimizzandolo. A 28 anni dall’incidente di Three Mile Island, Usa, e a 21 dalla catastrofe di Chernobyl, nel momento in cui i filonucleari stavano riprendendo coraggio e molti Paesi stavano riconsiderando questa opzione energetica per tentare di ridurre la produzione di gas serra, l’episodio di Kashiwazaki-Kariwa mise in luce ancora una volta i rischi intriseci delle centrali nucleari.
Certo, i Giapponesi sono maestri di costruzioni antisismiche, ma la resistenza di una costruzione non è assoluta: può sempre scatenarsi un terremoto abbastanza forte da comprometterla. Ciò vale per tutte le strutture che concentrino in sé quantità massicce di potenza: che sia nucleare o termoelettrica (e anche idroelettrica, si pensi alla diga del Vaiont), una centrale è sempre una spada di Damocle che pende sul capo della popolazione. Il rischio non è solo quello legato agli incidenti dovuti alla fragilità tecnologica dell’impianto o a eventi esterni (sismi, tsunami, inondazioni), ma deriva anche, come ho detto, dalla possibilità di azioni terroristiche deliberate: una centrale può essere oggetto di un attentato dal cielo con un aereo imbottito di esplosivo.
Un guasto serio in una grande centrale, per cause naturali o per attentato, avrebbe come conseguenza un’interruzione della fornitura di energia su ampia scala, con possibili effetti a cascata che comprometterebbero il funzionamento del paese. Nel caso di una centrale nucleare, inoltre, le conseguenze potrebbero comprendere anche fughe di radioattività, con danni ambientali e sulla popolazione. Tra queste conseguenze c’è da sottolineare il trauma psicologico e la conseguente riluttanza o addirittura la psicosi nei confronti di questi impianti: reazioni “emotive” e “irrazionali” (se non francamente “stupide”), diranno i soliti filonucleari. Ma l’atteggiamento della popolazione è comunque un fatto, e come tale non si può e non si deve trascurare o, peggio, irridere.
La percezione e la gestione del rischio
I casi che abbiamo menzionato e molti altri ancora (Bhopal, mucca pazza, petrolchimico di Mestre, influenza aviaria, avvelenamento da amianto…) illustrano in modo esemplare i complicati problemi della percezione e della gestione del rischio di origine tecnologica. Fino a qualche decennio fa la comunità degli esperti affrontava la questione al proprio interno, fornendo poi al pubblico le valutazioni e le soluzioni in una forma che non ammetteva repliche.
Di recente, tuttavia, la diffusa consapevolezza del rischio e le crisi innescate dai molti incidenti hanno imposto un radicale mutamento dei modi in cui i rischi tecnologici sono affrontati a gestiti. La crescente richiesta pubblica di informazioni chiare ed esaurienti ha determinato il passaggio dalla benevola elargizione di dati e ricette da parte degli specialisti al dialogo anche serrato tra questi e le altre componenti sociali. Secondo alcuni esperti, queste componenti esprimerebbero solo fastidiosi pregiudizi oscurantisti e credenze irrazionali, ostacolando il progresso. Ma oggi si riconosce che le loro istanze mirano in realtà a sottrarsi all’impostazione paternalistica e autoritaria degli esperti per avere un posto al tavolo delle decisioni che le riguardano.
Molti studi poi hanno dimostrato che i timori “ingiustificati e irrazionali” del pubblico non possono essere ascritti a un deficit d’informazione scientifica, perché spesso i contestatori sono scienziati o persone competenti e tutt’altro che disinformate: non è vero che una maggior quantità d’informazione predispone ad una più facile accettazione dei rischi. Quanto più il pubblico è informato tanto più desidera dire la sua: è un effetto collaterale, in parte imprevisto, della divulgazione scientifica. Entra in crisi il modello dello specialista neutrale e oracolare, indipendente dalla società, anzi sua guida unica e incondizionata. Si fa strada l’idea che l’accettabilità sociale di un rischio non dipende solo da valutazioni quantitative (la sua probabilità e il calcolo delle sue conseguenze), ma anche da convinzioni etiche e da giudizi valoriali e politici impossibili da quantificare.
La percezione del rischio, perché di questo si tratta (e in ultima analisi prima di un eventuale incidente esiste solo il rischio percepito), è sempre condizionata da valori, convinzioni, conoscenze pregresse ed esperienze. Nella gran parte dei casi, le divergenze di opinione tra esperti e pubblico non possono essere ricondotte alla semplice contrapposizione tra razionalità e irrazionalità, sapere e ignoranza, ragione ed emozioni, oggettività e ideologia, fatti e credenze, perché questi opposti ingredienti si mescolano nelle convinzioni degli esperti come in quelle degli altri attori sociali.
Il crescente scetticismo nei confronti del monopolio degli specialisti in materia di rischio deriva in ultima analisi dalla complessità del contesto in cui le innovazioni vengono a collocarsi: sempre più siamo costretti ad ammettere che non conosciamo le possibili conseguenze delle innovazioni prima che queste conseguenze si presentino. In questo stato d’ignoranza e d’incertezza è inevitabile giudicare i rischi anche in base ai valori e ai pregiudizi. Il problema diventa perciò etico e politico e non più solo scientifico: di qui la necessità di un allargamento della discussione per giungere a una gestione democratica dei problemi.
A questo punto possono anche sorgere dubbi sulla convenienza o addirittura la possibilità, almeno in certe situazioni, di una gestione democratica: la lentezza di un processo decisionale basato sui numerosi passaggi, sulle discussioni e sugli inevitabili compromessi che caratterizzano il dibattito allargato a tutte le componenti sociali può essere tollerata in certi casi, in particolare quando si debba decidere preventivamente sulla costruzione di un’opera di grandi dimensioni e quindi di grande impatto ambientale e sociale. Anzi, in linea di principio, la discussione preventiva sui rischi andrebbe sempre incoraggiata. Ma quando si tratta di prendere decisioni urgenti a fronte di rischi imminenti o di incidenti in corso, la lentezza del processo allargato può essere fatale. In questi casi non si può far altro che ricorrere alla rapidità decisionale di un unico ente (o addirittura persona) che si assuma l’onere e la responsabilità delle decisioni senza nessun filtro o consultazione.
Vi sono poi pressioni di vario genere (politiche, economiche, finanziarie) che a volte si oppongono alla consultazione democratica anche nella valutazione preventiva dei rischi, soprattutto quando si confrontino interessi contrapposti (locale-regionale-nazionale-internazionale). In tali casi le istanze superiori (nazionali e internazionali) cercano di imporre il proprio punto di vista di natura tecnica ed economica alle componenti locali, che tendono invece a privilegiare l’ambiente e la qualità della vita. Ne è un esempio il lungo contenzioso tra le popolazioni della val di Susa e il governo nazionale sul progetto dell’alta velocità ferroviaria. Il governo avrebbe fatto ben volentieri a meno dell’opinione del valsusini, che per farsi ascoltare sono dovuti ricorrere a robuste manifestazioni popolari.
Dopo un lungo periodo di imposizioni dall’alto si è dunque caduti nell’estremo opposto della contestazione innanzi tutto, per cui di fronte a ogni proposta, iniziativa o progetto si costituisce un agguerrito “comitato per il no” che si oppone in base al principio espresso dalla sigla Nimby (Not in my backyard, Non nel mio cortile). La contestazione si rivolta anche contro le attuazioni locali di direttive o decisioni internazionali e le rimette continuamente in discussione.
Cassandre e Corifei
Ancor prima di Beck, nel 1979, al tema del rischio aveva dedicato un saggio importante il filosofo tedesco Hans Jonas. Collocandosi su un piano più astratto di Beck e adottando uno stile teso e urgente, improntato a un catastrofismo etico estremo, Jonas aveva affermato: “Il Prometeo irresistibilmente scatenato, al quale la scienza conferisce forze senza precedenti e l’economia imprime un impulso incessante, esige un’etica che mediante auto-restrizioni impedisca alla sua potenza di diventare una sventura per l’uomo.” Riprendendo le tesi di Heidegger e anticipando quelle di alcuni pensatori contemporanei, Jonas sostiene che la tecnologia si è trasformata in brevissimo volger di tempo in una minaccia che non è solo fisica, ma riguarda l’integrità dell’uomo e la sua immagine: si tratta dunque di una minaccia metafisica, di fronte alla quale nessuna delle etiche tradizionali ci può soccorrere. Jonas non esita a sollecitare una limitazione dell’attività tecnoscientifica: pur riconoscendo che il perseguimento del sapere è un diritto inalienabile, ne denuncia la pericolosità ormai manifesta. Il sapere rischia di provocare la fine dell’umanità così come essa è. Quindi, al di sopra dei rischi specifici legati alle singole tecnologie e indicati da Beck, Jonas denuncia il rischio generale rappresentato dalla tecnologia nel suo complesso.
Come a tutti i pensatori che si attestano su posizioni conservatrici, a Jonas (come più di recente a Fukuyama) sembra sfuggire il carattere inevitabilmente dinamico della natura umana. Non si può parlare di “umanità” come di una costante rispetto alla storia: l’uomo si è sempre trasformato e continua oggi a trasformarsi per effetto dell’evoluzione biologica e soprattutto dell’evoluzione culturale e dell’ibridazione con gli strumenti tecnologici (Longo 2001, 2003).
Fatta questa precisazione, si comprende che ciò che Jonas in realtà vuol denunciare è la velocità con cui avvengono oggi le trasformazioni indotte dalla tecnologia. Questa velocità provoca uno squilibrio crescente tra le varie componenti dell’uomo: quella razional-computante, quella cognitiva, quella affettiva, quella corporea (ammesso che le si possa separare in modo così schematico). Sul pericolo rappresentato da questa velocità travolgente si può essere d’accordo, perché essa provoca disadattamenti e sofferenze che non sappiamo gestire.
All'”estremismo etico” di Jonas si contrappone un estremismo di segno opposto, all’insegna del progresso per il progresso. Contestando gli effetti negativi della tecnologia sulla qualità della vita e le conseguenze pericolose dell’attività umana, i rappresentanti di queste posizioni ottimiste, tra cui Hans Moravec, Nicholas Negroponte, Ray Kurzweil e Marvin Minsky, professano una fede assoluta in una sorta di provvidenza tecnologica, che non solo ci riserva un futuro di semidèi, ma saprà anche risolvere i problemi che la tecnologia stessa sta provocando.
La contrapposizione tra Cassandre e Corifei si riscontra anche sul versante dei rischi naturali, in particolare climatici, dove un esempio di ottimismo se non addirittura di negazionismo è stato offerto da Bjørn Lomborg, secondo il quale i catastrofisti hanno esagerato, se non addirittura inventato, lo stato di degrado del pianeta. Le accese polemiche tra specialisti suscitate dal libro di Lomborg indicano che di fronte alla questione del rischio la nostra accresciuta competenza non basta a redimerci dalla nostra enorme ignoranza: ne sappiamo troppo poco dei meccanismi della natura, per esempio del clima, ne sappiamo troppo poco delle possibili conseguenze delle tecnologie che inventiamo e, di conseguenza, non sappiamo quasi nulla delle possibili conseguenze dell’interazione tra tecnologia e natura.
Che cosa possiamo fare in questa situazione d’ignoranza e d’incertezza? L’ignoranza, dicono Jonas e i pessimisti, dovrebbe indurci alla prudenza o alla paura, cioè all’inazione, o alla controazione. Per Lomborg, come per tanti altri, compreso il romanziere Crichton, l’ignoranza deve invece fortificare l’ottimismo: non ci sono prove che la nostra azione sia deleteria, quindi procediamo. Da un punto di vista strettamente logico la posizione di Lomborg è sbagliata e quella di Jonas è corretta, perché per i rischi l’assenza di prove non è prova di assenza, ma gli uomini non agiscono quasi mai in base alla logica. Inoltre non si possono ignorare le ragioni dell’economia: una brusca inversione di rotta nei processi di produzione potrebbe provocare una spaventosa crisi a livello planetario.
Si tratta tutto sommato di un problema insolubile, o meglio quasi-insolubile: poiché comunque qualcosa l’umanità fa e poiché il sistema globale comunque si evolve, sarà la storia che si incaricherà di risolvere il problema, cioè ci presenterà le conseguenze delle nostre azioni. Inoltre, poiché quelle conseguenze non riguarderanno tanto noi quanto i nostri figli e nipoti, si manifesta una forte dissimmetria tra le nostre scelte e i loro effetti, tra chi agisce e chi subisce: questa dissimmetria rende il problema ancora più complicato e più drammatico, anche se forse meno urgente.
C’è tuttavia da aggiungere che, via via che gli studi procedono e i dati si accumulano, pare che la posizione dei pessimisti ne esca rafforzata: i rischi ambientali, che in prima approssimazione si possono riassumere negli effetti del riscaldamento globale, ricevono conferme quotidiane e sembra proprio che l’attività umana contribuisca in misura rilevante ad accentuarli (Kolbert). Dal canto loro le infrastrutture e i sistemi artificiali, sempre più interconnessi, diffusi, fragili e complicati e sempre più affidati alla gestione automatica, presentano livelli di rischio sempre più alti. Questo drammatico crescendo è messo in luce, come ho detto, dalle tragiche conseguenze (attuali e potenziali) degli attentati terroristici, che fanno leva proprio sulla fragilità e sulla concentrazione di persone, energia e strutture.
Considerazioni finali
Schematizzando molto, si può dire che nel Novecento la tecnologia ha sorpassato la scienza. La velocità e la complessità della tecnologia, specie di quella legata all’informazione e alla genomica, impediscono alla scienza di tracciarne un quadro esplicativo coerente e completo e di fornire risposte certe ai problemi applicativi: che cosa accadrà se userò la tal medicina, se devierò il corso di questo fiume, se modificherò il corredo genetico di quella specie? La nostra capacità di agire, inducendo cambiamenti durevoli e talora irreversibili, è ormai molto più sviluppata della capacità di prevedere gli effetti dei nostri interventi. Si naviga a vista, ricorrendo a una sorta di bricolage. La natura del rischio assume così connotati nuovi e più inquietanti.
Certi settori della tecnologia sono tanto complessi che la scienza non sa dare quelle risposte forti e chiare che la gente si aspetta. Bisogna accettare l’incertezza intrinseca del nostro rapporto col mondo. Bisogna accettare l’esistenza dei rischi e poi bisogna decidere se correrli o no. Ma non esistono soluzioni garantite e ogni decisione è frutto di un compromesso, condizionato dalle valutazioni degli esperti ma anche dalle istanze dei cittadini, della cultura e delle tradizioni. Inoltre, quando gli scienziati devono affrontare i problemi reali, vengono alla luce i loro pregiudizi, le loro ideologie, le loro emozioni e, anche, le loro esperienze personali. Non esistono dati, ma solo dati interpretati o addirittura manipolati per dimostrare tesi preconcette.
In questa situazione, bisogna complessificare la visione, analizzare i problemi collocandoli nel loro più ampio contesto socioculturale, politico ed etico e non cadere nelle tradizionali dicotomie del vero e del falso, tanto care agli specialisti, ma che poco servono. Tutti gli interessati, cioè tutti, debbono dare il loro contributo alla valutazione e alla gestione del rischio. E’ evidente che ciò rallenta il cammino, ma forse consente di chiedersi dove porti questo cammino.
Bibliografia
Beck U., La società del rischio. Verso una seconda modernità, Carocci, Roma, 2001.
Collins H. e Pinch T., Il golem tecnologico, Torino, Edizioni di Comunità, 2000.
Crichton M., Stato di paura, Garzanti, Milano, 2005.
Fukuyama F., L’uomo oltre l’uomo, Mondadori, Milano, 2002.
Jonas H., Il principio responsabilità, Einaudi, Torino, 1990.
Kirby, D., L’eugenetica al cinema: “Gattaca”, Prometeo, 25, n. 98, giugno 2007, pagg. 14-23.
Kolbert E., Field Notes from a Catastrophe, Bloomsbury, Londra, 2006.
Lomborg B., L’ambientalista scettico, Mondadori, Milano, 2003
Longo G. O., Homo technologicus, Meltemi, Roma, 2001, 2a ed. 2005.
Longo G. O., Il simbionte. Prove di umanità futura, Meltemi, Roma, 2003.
McGuire B., Guida alla fine del mondo, Raffaello Cortine Editore, Milano, 2003.
Sturloni G., Le mele di Chernobyl sono buone. Mezzo secolo di rischio tecnologico, Sironi, Milano, 2006.