(Questo documento è il testo inedito dell’intervento preparato dal prof. Silvano Tagliagambe per il convegno “Costruire un ponte tra scienza e società” svoltosi a Bergamo il 14-15 febbraio 2008)
1. Il ruolo della comunicazione scientifica nella società della conoscenza.
2. Arrow: i rischi dell’innovazione e i problemi economici da essa generati.
3. La comunicazione scientifica e il “modello Celera”.
4. Gli ulteriori sviluppi: la ricchezza della rete e le sue conseguenze.
5. Il rimescolamento delle carte provocato dalla globalizzazione.
Note
1. Il ruolo della comunicazione scientifica nella società della conoscenza
Quello di ‘bene’ è un concetto tipicamente polisemico, Ci sono beni tecnici, beni economici, beni estetici e beni morali. Ci sono beni soggettivi e beni oggettivi, beni privati e beni pubblici, beni commerciabili e quindi disponibili alla compravendita e beni indisponibili. I beni economici sono disponibili: essi possono essere privato o pubblici, in quest’ultimo caso li chiamiamo beni comuni.
Definiamo invece indisponibili i beni ai quali non possono essere applicate le categorie economiche del commercio, e che quindi non possono essere sottoposti a un’analisi costi/benefici, ma vanno piuttosto trattati sulla base di un’analisi costi/efficacia. I tipici beni indisponibili sono quelli morali: ma ci sono anche beni materiali che rientrano in questa categoria, come il demanio pubblico, l’ambiente, l’acqua.
La conoscenza scientifica e la relativa comunicazione sono, indubbiamente, dei beni, specialmente all’interno di una società come quella attuale, che non a caso è chiamata ‘della conoscenza’.
Per questo è importante capire a che cosa ci si vuole riferire quando si parla di capitale umano come fattore propulsivo e motore principale dello sviluppo della società della c conoscenza, appunto.
Lo sviluppo di quest’ultima presuppone, come viene evidenziato ormai da tutte le riflessioni e gli approfondimenti sui presupposti e sulle caratteristiche della società della conoscenza, l’esigenza di tener conto del nesso tra:
- innovazione;
- partecipazione;
- concertazione;
- sussidiarietà;
- istruzione/formazione
La relazione tra questi cinque fattori non è di tipo sequenziale, ma circolare, caratterizzata dalla presenza di processi di retroazione. Se pertanto, all’interno della società della conoscenza, cerchiamo di capire quali caratteristiche debba avere un ambiente innovativo, lo possiamo pensare e definire come un insieme di relazioni circolari che portano a unità un contesto locale di produzione, un insieme di attori e di rappresentazioni e una cultura industriale, trasformandolo in un sistema organizzato, all’interno del quale si genera un processo dinamico e localizzato di apprendimento collettivo.
In questa prospettiva lo spazio, anziché essere inteso come mera estensione e distanza geografica, viene visto come spazio relazionale, cioè come contesto in cui operano comuni modelli cognitivi e in cui la conoscenza tacita viene creata e trasmessa; il tempo viene assunto in una dimensione che fa riferimento al ritmo dei processi di apprendimento e di innovazione/creazione.
Perché si possa parlare di società della conoscenza e di ambiente innovativo occorre dunque sviluppare, all’interno di un contesto locale, una prossimità socio-culturale, definibile come presenza di modelli condivisi di comportamento, fiducia reciproca, linguaggi e rappresentazioni comuni e comuni codici morali e cognitivi. Prossimità geografica e prossimità socio-culturale determinano alta probabilità di interazione e sinergia fra i soggetti individuali e collettivi, contatti ripetuti che tendono all’informalità, assenza di comportamenti opportunistici, elevata divisione del lavoro e cooperazione all’interno dell’ambiente: quello che chiamiamo il suo capitale relazionale, fatto di attitudine alla cooperazione, fiducia, coesione e senso di appartenenza.
Nel quadro generale che si viene così a delineare l’accumulazione di capitale umano alimenta l’efficienza produttiva, sospinge la remunerazione del lavoro e degli altri fattori produttivi. Questo motore della crescita diviene ancora più rilevante nelle fasi caratterizzate da rapido progresso tecnico. Edmund Phelps, premio Nobel per l’economia di quest’anno, notava fin dagli anni sessanta come l’acquisizione di un livello avanzato di conoscenze sia condizione essenziale per innovare e per adattarsi alle nuove tecnologie. La dotazione di capitale umano assume un valore cruciale che trascende chi ne usufruisce in prima istanza: essa promuove la generazione e la diffusione di nuove idee che danno impulso al progresso tecnico; migliora le prospettive di remunerazione e, chiudendo il circolo virtuoso, accresce l’incentivo all’ulteriore investimento in capitale umano.
Il ‘capitale sociale’, in quest’ottica, è definito come l’insieme delle istituzioni, delle norme sociali di fiducia e reciprocità nelle reti di relazioni formali e informali, che favoriscono l’azione collettiva e costituiscono una risorsa per la creazione di benessere. A livello aggregato il capitale sociale, distinto dal capitale umano a cui pure è collegato, è un fattore di sviluppo umano, sociale, economico. Esso è il sistema di valori condiviso, che garantisce il senso di responsabilità verso gli impegni assunti dalle parti nella formazione di un contratto. Questi valori rappresentano un tratto dell’identità di un paese, che si fissa nel lungo periodo, per via di consuetudini e principi che si tramandano di generazione in generazione. Il sistema di istruzione può arricchire questa eredità, accrescendone le opportunità e attenuandone gli aspetti negativi.
La questione cruciale da affrontare, se si vuole innescare un autentico circolo virtuoso tra istruzione/formazione e innovazione, è quella di accompagnare e sostenere i mutamenti in atto nelle identità culturali e sociali, alla luce dei quali la cultura e le stesse competenze appaiono un patrimonio non da trasmettere, ma da costruire negli stessi processi in cui si costruiscono le identità delle singole persone. Gli educatori e i formatori, dinanzi a questo difficile obiettivo, stanno guardando con interesse a uno dei risultati di maggior portata delle scienze cognitive del novecento. Si tratta di quello che è stato definito il passaggio da un paradigma istruttivo a un paradigma perturbativo della comunicazione: nel primo caso si postula una condivisione preliminare del senso dei messaggi fra il mittente e il destinatario; mentre nel secondo caso il senso stesso viene costruito autonomamente dal destinatario sulla base del suo dominio cognitivo, cioè delle sue modalità di funzionamento biologico, neurologico e psicologico, che si sovrappongono, ma non si identificano, con quelle del mittente. Tradotto in termini educativi, questo significa che non c’è alcun apprendimento senza costruzione attiva e autonoma del soggetto. La questione cruciale che le politiche educative e scolastiche non possono più eludere è il modo in cui le istituzioni possano affrontare un cambiamento culturale di tale portata e gli strumenti culturali e tecnologici di cui debbono dotare, a tal fine, il sistema scolastico e quello formativo. In quest’ottica il primo ostacolo da rimuovere è il contrasto, che si sta profilando in modo sempre più evidente, fra la dinamicità delle nuove forme e dei nuovi contenuti dei saperi e le loro organizzazioni istituzionali, che appaiono ormai antiquate, ispirate come sono a un ordinamento disciplinare, basato su metafore territoriali e su confini rigidi e statici fra i vari campi delle conoscenze, concepito, agli inizi dell’ottocento, in un mondo assai differente da quello attuale. I saperi umani, per essere all’altezza delle sfide cognitive poste dalla rivoluzione scientifica e culturale in atto, che è anche e soprattutto una rivoluzione epistemologica, con nuovi e più complessi oggetti di studio e di ricerca che irrompono sulla scena, devono ormai necessariamente orientarsi su strategie interdisciplinari (le discipline collaborano e si connettono) e transdisciplinari (le discipline si integrano e si contaminano).
In questo quadro generale la conoscenza e la sua diffusione tramite la comunicazione, in quanto fattori indispensabili per la formazione e l’accumulazione del capitale umano, che a sua volta, come si è visto, è alla base della generazione e alla diffusione di nuove idee che danno impulso allo sviluppo sociale, al progresso tecnico e alla crescita della ricchezza delle nazioni, è certamente un bene che ha efficacia economica ed è di interesse pubblico. Quello che occorre capire è se si tratti di un bene commerciabile, e quindi economico, o indisponibile.
Fino a poco tempo fa la risposta a questo domanda sarebbe parsa scontata, in quanto ci si spingeva sino al punto di ipotizzare un legame talmente stretto tra democrazia e scienza da considerare non soltanto non casuale il fatto che i germogli dell’una e dell’altra siano spuntati nello stesso luogo e più o meno nello stesso tempo (la Grecia di Socrate, Platone e Aristotele), ma anche la decadenza dell’una quando l’altra cede il passo al totalitarismo e alla dittatura, com’è avvenuto nell’URSS di Stalin e nella Germania nazista. La presenza di questo nesso così forte costituirebbe già di per sé una risposta, in quanto farebbe rientrare anche la scienza nella stessa tipologia dei beni in cui va inserita la democrazia, che certamente non può essere considerata in alcun modo negoziabile.
Oggi però non si può dare affatto per acquisito un simile punto di vista. La conoscenza umana, infatti, comincia a essere concepita come un bene che non solo può essere commerciabile, e quindi venire allocato all’interno di un “mercato di scambi”, ma può anche subire una concentrazione, in seguito alla quale i suoi contenuti, vale a dire i beni allocati o allocabili all’interno del processo di produzione, accumulazione e raccolta, selezione e revisione delle risorse epistemiche, (cioè la scoperta, la verifica, il passaggio al gruppo di controllo, la discussione, ecc.), possono passare continuamente di mano, finendo però, molto spesso, come nei mercati macroeconomicamente polarizzati, ad essere l’oggetto di vere e proprie accumulazioni oligopolistiche, dove pochi, agenti economici possono riuscire ad accumulare in poche mani l’ammontare di enormi ricchezze conoscitive, spesso risultato di “plusvalenze cognitive” che non sono, come nel caso del capitale monetario, fisso, e immobiliare, il frutto integrale di un investimento iniziale a rischio totale (o comunque significativo), quanto semmai l’esito dell’impegno, della dedizione e del rischio altrui.
E’ importante chiedersi e cercare di capire come si sia potuto verificare un mutamento di prospettiva così significativo, di tale portata e denso di conseguenze rilevanti e tutt’altro che indolori.
2. Arrow: i rischi dell’innovazione e i problemi economici da essa generati.
Punto obbligato per ricostruire questo processo è ancor oggi la lucida analisi che Arrow, in un articolo del 1962, poi ripubblicato nel 1971 (1), dedica all’analisi dei processi di innovazione e di incremento della conoscenza in ambito economico e alle ragioni per le quali, in un sistema economico in cui si producano nuove informazioni e conoscenze, tradotte in invenzioni, il mercato non sia in grado di allocare le risorse in modo ottimale.
Alla base di queste ragioni c’è il carattere rischioso del processo di creazione di nuova informazione, determinato da tre caratteristiche specifiche di quest’ultima, e cioè:
– l’indivisibilità;
– l’incompleta appropriabilità;
– l’impossibilità di valutarne con precisione, ex ante, l’utilità.
E’ noto come il passaggio dalla ricerca di base alla ricerca applicata costituisca un nodo delicato, nel senso che nulla può garantire a priori che investimenti anche ingenti nella prima conducano a risultati significativi dal punto di vista economico e/o sociale. E altrettanto evidente che lo stessa componente di rischio è insita nell’informazione e, a maggior ragione, nell’invenzione. Se un consumatore acquista informazione nel momento in cui lo fa non può essere certo che essa risponderà pienamente alle proprie esigenze. E così il compratore, per essere sicuro che l’invenzione soddisfi ai requisiti richiesti, dovrebbe conoscerne anticipatamente quel complesso di caratteristiche di cui potrà invece disporre solo ad acquisto avvenuto.
Per quanto riguarda poi la seconda delle caratteristiche elencate, e cioè l’incompleta appropriabilità, i costi dei brevetti, a fronte delle garanzie, tutt’altro che "a prova di bomba", che essi sono in grado di fornire contro il rischio di imitazioni pongono chi ha dovuto sobbarcarsi i costi della ricerca e del processo di invenzione in una condizione di ovvia debolezza nei confronti di coloro che, eventualmente, ne possono usufruire senza dover pagare questi prezzi. Quando i costi che devono essere sostenuti per cautelarsi rispetto a questi pericoli (restando, oltretutto, in una situazione di incertezza riguardo alla loro effettiva efficacia) sono troppo alti, può succedere che si preferisca rinunciare a procedere alla produzione e allo scambio del bene in questione.
Proprio la conoscenza, l’informazione, l’innovazione, cioè quei fattori di cui si esalta l’importanza imprescindibile per lo sviluppo dei sistemi economici e sociali, possono dunque risultare non facilmente compatibili con la logica del mercato, in quanto nel loro caso la formazione dell’equilibrio e l’allocazione ottimale delle risorse possono diventare problematici.
La questione diventa ancora più acuta e acquista una dimensione che difficilmente può essere sottovalutata se si considera il crescente peso che nelle società industriali avanzate acquista, sia sotto il profilo dell’allocazione delle risorse, sia dal punto di vista dei flussi e della concentrazione della forza lavoro, il complesso di attività che possiamo chiamare di transazione, vale a dire quelle che hanno a che fare con il processo innovativo e con la regolazione del processo espansivo. Tra queste attività rientrano, oltre alla commercializzazione, la certificazione della qualità dei prodotti, l’innovazione tecnologica e tutto quello che essa presuppone e comporta, dalla ricerca fondamentale a quella applicata, per arrivare alla logistica, ai patti di coalizione fra le persone e le aziende e quant’altro. Negli Stati Uniti, per esempio, se si considera l’evoluzione della società nei primi sette decenni del nostro secolo, si constata che la forza lavoro complessiva è aumentata tre volte, più o meno quanto la forza lavoro operaia, mentre è aumentata di sette volte la forza lavoro legata alle attività di transazione. Non si tratta, certo, di un fatto casuale, bensì di una conseguenza naturale del tipo di crescita che caratterizza le società industriali avanzate, crescita che ha il suo motore nel sapere e nell’innovazione che ne consegue, posto che la capacità di produrre beni e servizi a forte valore aggiunto e, quindi, altamente competitivi non è disgiunto dalla disponibilità nelle imprese di adeguate conoscenze e capacità fondate su di esse.
Se dunque è vero, per le ragioni che si sono viste, che proprio i processi che hanno a che fare con la conoscenza e l’innovazione possono facilmente generare fallimenti del mercato, possiamo dire che il processo occupazionale non segue tanto o soltanto quest’ultimo, bensì la crescita di attività che si sviluppano, in tutto o in parte, al di fuori di esso.
Dove? Com’è noto la risposta a questa domanda è già contenuta, in nuce, in un articolo tutt’altro che recente, quello che Coase scrisse nel 1936 e pubblicò con il titolo The Nature of the Firm, il cui contenuto non ebbe l’impatto che meritava fino a che esso non è stato ripreso e approfondito in analisi successive proposte da Simon, Williamson e dal già citato Arrow.
Se ci sono transazioni che non possono essere realizzate attraverso un rapporto di mercato, in quanto per una ragione o per l’altra risultano difficilmente conciliabili con il tipo di coordinamento che viene attuato da quest’ultimo, e che ha alla sua base la dinamica dei prezzi, qual è il destino che esse subiscono: sono inevitabilmente destinate a essere scartate e a rimanere pure possibilità inattuate, o possono trovare un loro spazio altrove? Coase risponde a questa domanda confrontando impresa e mercato, considerati entrambi come istituzioni rette da contratti che regolano le transazioni che si effettuano tra differenti individui, e ponendo, soprattutto, a raffronto le transazioni all’interno dell’una e dell’altro. Per capire la differenza che sussiste in questi due casi torniamo al problema della produzione di nuove conoscenze ed informazioni. Con il linguaggio e le acquisizioni di oggi potremmo dire che per il mercato essi sono "beni posizionali", cioè quei tipi di beni, così chiamati da Fred Hirsch in un saggio del 1976, The social limits to growth, il cui consumo ha caratteristiche di esclusività, nel senso che produce un’utilità via via decrescente all’aumentare della fruizione generalizzata. Il potere, il ruolo sociale, tutto ciò che rientra nell’ampia categoria degli "status symbol" sono beni di questa natura, che possono essere fruiti e consumati solo se risultano distribuiti in modo ineguale tra una pluralità di soggetti. Proprio per questa caratteristica il tasso globale di crescita di questi beni non può che essere zero, dal momento che è per definizione impossibile che tutti riescano ad aumentarne il consumo. Queste caratteristiche spiegano la disponibilità, da parte di chi ne è in possesso, a sobbarcarsi costi elevati di esclusione per impedire ad agenti opportunistici la loro fruizione indebita e stabilire l’uso esclusivo di essi da parte di chi li ha acquistati.
Se ci si pone dal punto di vista dell’impresa e delle nuove informazioni e conoscenza che emergono all’interno di essa, il fatto che nessuno dei soggetti che ne fanno parte disponga individualmente dei diritti di proprietà su questi risultati non impedisce, ovviamente, un loro uso congiunto. All’interno dell’impresa la nuova conoscenza prodotta diventa così un bene collettivo, la cui fruizione è tanto più efficace quanto più forte è l’interazione fra i suoi componenti e quanto più avanti essa riesce a spingersi, fino a trasformarsi in condivisione.
Ciò spiega perché mercato e imprese possano essere considerate istituzioni alternative. E ci fa altresì capire perché le seconde si prestino generalmente meglio a trattare un bene come la conoscenza che non solo non è perfettamente appropriabile e valutabile ex ante, ma presenta caratteristiche difficilmente comprimibili di diffusione ed interdipendenza. Questi tratti ben si adattano a un’organizzazione la cui efficacia e il cui successo sono legati anche alla capacità di aggregare e integrare informazioni e acquisizione sempre nuove, coordinandole attraverso le sue procedure interne e attivando processi di "apprendimento collettivo e "organizzativo" dei suoi componenti rispetto a esse.
Se dunque sia il mercato che l’impresa sono luoghi di coordinamento di conoscenze diverse e divise, diverse sono le modalità attraverso le quali questo coordinamento si realizza: e questa differenza è dimostrata dal fatto che l’impresa può tranquillamente svolgere al suo interno le transazioni che non si possono realizzare attraverso un rapporto di mercato, anzi spesso le imprese nascono proprio per intervenire là dove si registrano fallimenti del mercato. Fallimenti che non sono assoluti, ma relativi, nel senso che si registrano soltanto nei casi in cui i costi di transazione superano i costi di organizzazione.
Quando si parla di "società della conoscenza" e si pone l’accento sull’esigenza di promuovere processi creativi, innovazioni di prodotto e di processo su larga scala, tecnologie nuove in generale, ci si riferisce però a scenari che comportano rilevanti immobilizzazioni tecniche, costi di transazione elevati, capitali fisici a lunga vita. Proprio per questo è ancor oggi opinione corrente ritenere che né il mercato, per le ragioni appena viste, ma neppure le imprese possano mettere in campo le risorse necessarie per finanziare un processo di questo genere. Da qui discende la convinzione che la ricerca a sostegno di esso debba necessariamente essere socializzata, cioè finanziata dallo Stato e realizzata essenzialmente in laboratori pubblici.
In realtà quello che negli ultimi decenni del secolo scorso negli Stati Uniti, dimostra che non è questa la strada si è, di fatto, seguita. Già dal 1982 in questo paese gli investimenti privati in ricerca e sviluppo avevano superato come volume quelli del governo federale. Da allora, come si rileva da un articolo pubblicato nel 2001 su ‘Nature’ (2), la differenza tra le due fonti di finanziamento, pubblico-privati, è in continua crescita a vantaggio dei secondi, al punto che all’inizio del nuovo millennio circa il 76% della ricerca risultava finanziata e realizzata dall’industria. Il budget in ricerca e sviluppo della sola industria farmaceutica nel 2001 è stato di 28 miliardi di dollari. I colossi della farmaceutica, le dinamiche start up della biotecnologia, l’industria informatica, solo per citarne alcuni, tutti questi attori hanno investito somme crescenti del proprio budget in ricerca e sviluppo. In alcuni casi, come nei nuovi settori della genomica e dell’ingegneria genetica, la ricerca è l’elemento che caratterizza il modello economico e la stessa ragione d’essere di queste imprese. Il loro business plan prevede forti investimenti in settori scientifici promettenti ma ancora a rischio, in cui il vantaggio competitivo risiede nella flessibilità, nell’elevata innovazione tecnologica e nella qualità crescente dei ricercatori impiegati. Sono sempre più frequenti negli USA i casi di scienziati, anche premi Nobel, i quali, pur continuando a lavorare nell’ambiente accademico da cui provengono, acquisiscono ruoli sempre più importanti nel settore privato, amministratori, presidenti, membri dei comitati scientifici. Molti di essi sono diventati anche imprenditori, una definizione sempre più presente anche nella stampa non specializzata.
Ad assumere l’onere dell’innovazione, in linea con quanto contemplato nell’impostazione teorica di Coase, sono dunque le imprese, ma per lo più un genere di imprese nuove, adeguate ad affrontare le dimensioni e l’entità dei costi dell’investimento in conoscenza e organizzate e attrezzate al fine di immunizzarsi, nei limiti del possibile, rispetto ai problemi e ai rischi già evidenziati da Arrow, e notevolmente aumentati oggi, in conseguenza del fatto che, all’interno dell’economia delle reti globali, la crescita del numero dei concorrenti con i quali ci si deve confrontare e la loro diversità rende ancor più precarie e insicure le posizioni acquisite sui mercati in cui le competenze e le conoscenze vengono utilizzate. La figura dello “scienziato-imprenditore”, che dà luogo alla nascita e allo sviluppo di quella che possiamo chiamare la “scienza-imprenditrice”, nasce proprio per rispondere all’esigenza di dare risposte concrete e soluzioni efficaci ai problemi a suo tempo sollevati da Arrow, in particolare accorciando notevolmente la catena dei passaggi tra il produttore e il consumatore di nuova informazione e stabilendo nuove misure e condizioni per garantirsi una più completa appropriabilità di quest’ultima.
Per quanto riguarda il primo aspetto possiamo citare come esempio il fatto che, poco dopo la notizia del successo ottenuto nel campo della clonazione, con la nascita dell’ormai famosa pecora Dolly, il Roslin, l’istituto veterinario scozzese, ente pubblico di ricerca, che insieme alla Ppl Therapeutics, una giovane industria del settore delle biotecnologie fu il protagonista della scoperta, fondò nel 1997 una propria azienda biotecnologica, la Roslin Bio-Med, al fine di sfruttare economicamente e in modo diretto le proprie ricerche. Questa nuova azienda l’anno successivo fu acquistata per 26 milioni di dollari da un gigante del settore, la californiana Geron Corporation, la stessa compagnia che ha finanziato una delle ricerche biologiche più importanti degli ultimi anni, l’isolamento delle cellule staminali embrionali umane.
In relazione, invece, al secondo aspetto, va ricordato che l’incompleta appropriabilità, di cui parla Arrow, è legata all’immagine tradizionale della ricerca scientifica come prodotto di collaborazione sociale, i cui risultati debbono essere resi disponibili all’intera comunità degli scienziati e al pubblico senza indugi e riserve di alcun genere, essendo strettamente associato a tale immagine, fin dalle origini, il principio della comunicazione completa, libera e aperta non solo delle acquisizioni raggiunte, ma anche del modo in cui vi si è giunti, così da renderne possibile il controllo da parte di chiunque.
Per rendersi conto dei mutamenti cui sta andando incontro questa immagine è sufficiente riferirsi al cosiddetto “modello Celera”, la società salita agli onori delle cronache per il successo ottenuto nella mappatura del genoma umano (3).
3. La comunicazione scientifica e il “modello Celera”.
La Celera Genomics, com’è noto, è stata fondata nel 1998 da Craig Venter, con lo scopo di sequenziare il genoma umano. Nel febbraio 2001 pubblicò l’articolo con i risultati del sequnziamento sulla prestigiosa rivista Science, anticipando il consorzio internazionale detto Progetto Genoma Umano. Attualmente l’azienda si occupa di diagnostica molecolare, offrendo servizi di analisi avanzata ad altri laboratori. La Celera è una branca della Applera Corporation, una società del Maryland che possiede anche l’Applied Biosystems (Abi), l’azienda produttrice di sequenziatori automatici di Dna e di altri strumenti per la genomica.
E’ interessante analizzare il prospetto dei ricavi di questa azienda che prevedeva, fino al 2002, da una parte (Celera Genomics) l’accesso a pagamento ai propri archivi scientifici (soprattutto i fondamentali data base della sequenza del topo e dell’uomo), dall’altra (Abi) la vendita diretta degli strumenti innovativi, soprattutto informatici e ad alta tecnologia, necessari alla ricerca nel campo della genomica.
Questa almeno era la situazione fino alla fine del 2001, perché a partire dal gennaio del 2002 anche la Celera, come in genere tutte le aziende biotech, è andata incontro ad una profonda riconversione, con un deciso riorientamento verso il settore farmaceutico, tramite la costituzione di una nuova società, la Celera Therapeutics, che ha come “missione” quella di sviluppare in proprio prodotti terapeutici.
Quello che interessa qui sottolineare è la nuova strategia nell’accesso alla scoperta scientifica, messa in atto da queste compagnie, chiaramente enunciata da J. Craig Venter, fondatore ed allora presidente della Celera Genomics, la società che ha sequenziato il Dna umano, nel corso di un’audizione al Congresso americano tenutasi nel 1998:
“Il nostro progetto prevede di rendere di dominio pubblico i dati ogni tre mesi, inclusa la sequenza completa del genoma umano alla fine del lavoro. Anticipo anche che noi proporremo un canone di connessione per l’accesso in linea ai dati, e per l’uso degli strumenti informatici per interpretarli. Inoltre, cercheremo di vendere il nostro data base alle aziende farmaceutiche o biotecnologiche.
(…) Noi renderemo il genoma umano non brevettabile [in sé]. Ci aspettiamo che questi dati fondamentali e primari siano utilizzati, da noi e dagli altri, come un punto di partenza per ulteriori studi biologici che aiutino a identificare e definire nuovi obiettivi terapeutici e diagnostici. Una volta caratterizzate pienamente queste strutture importanti, ci aspettiamo di richiedere la protezione dei brevetti in modo appropriato. Data la complessità e la portata dell’informazione contenuta nel genoma umano, pensiamo che ci concentreremo su 100-300 siti genetici rispetto alle migliaia di obiettivi potenziali.
(…) La Celera è l’unica azienda nel campo della genomica che sta usando le proprie capacità per sequenziare direttamente il genoma umano. Come un’azienda dell’informazione (information company), la Celera è stata progettata per assistere i ricercatori, piuttosto che focalizzarsi sullo sviluppo diretto di nuovi prodotti farmaceutici. Un altro aspetto che distingue il nostro modello di business da quello dei nostri competitori è che noi forniamo dati senza il consueto deterrente di richiedere agli utenti onerose royalty per le scoperte effettuate attraverso di essi (spesso chiamato “reach-through right”).
(…) Uno dei principi fondamentali della Celera è che rilasceremo liberamente l’intera sequenza del genoma umano ai ricercatori sul nostro sito web. Crediamo che questo serva al meglio sia gli interessi della scienza che della nostra azienda. (…) Non porremo alcun genere di restrizioni su come gli scienziati possano utilizzare questi dati, pubblicare i risultati delle loro ricerche o ottenere brevetti sulle loro scoperte. L’unica protezione che vogliamo è quella del nostro data base, come esiste in Europa, per impedire che altre compagnie lo vendano in proprio. (…) I costi per i nostri utenti varieranno in modo appropriato, secondo il prodotto, il cliente e l’applicazione. Forniremo queste informazioni ad alto valore aggiunto ai ricercatori universitari e organizzazioni non commerciali ad un prezzo ragionevole. (…) Reagiremo sempre contro chi dice che la Celera intende bloccare la circolazione delle informazioni e ritardare il progresso, soprattutto perché la nostra mission è di accelerare la diffusione di informazione accurata e di qualità. Voglio dirlo molto chiaramente: i nostri dati sul genoma umano sono liberamente disponibili per gli abbonati. Permettetemi di fare un’analogia: quando raccogliete il quotidiano recapitato di fronte la vostra porta di casa, lo giudicate abbastanza accessibile e probabilmente non ricordate neanche che voi state pagando un abbonamento per averlo. E certamente non pensate che la società editrice del giornale si stia comportando in modo da restringere l’accesso alle notizie solo perché vi chiede di pagare un abbonamento” (4).
Venter tracciava dunque qui un’analogia, particolarmente illuminante e interessante ai fini della nostra analisi, tra il mondo della comunicazione scientifica e quello generico dell’informazione, dove accedere alle notizie ha, normalmente, un costo di abbonamento o di accesso. Il modello della Celera è l’agenzia giornalistica Bloomberg, fornitrice (a pagamento) di notizie e analisi finanziarie di qualità. Come i ricavi di un quotidiano provengono dalle vendite e dalla pubblicità, così quelli della Celera dipendono dagli abbonamenti e dalle collaborazioni scientifiche.
Questo tipo di approccio viene ribadito e confermato dalla notizia, diffusa alla fine di aprile del 2002 che un “pezzo pregiato” del patrimonio conoscitivo della stessa Celera Genomics, e cioè il data base del genoma del topo, la cui qualità è assolutamente migliore rispetto a quella del progetto pubblico analogo, è stato messo a disposizione di ospedali e centri di ricerca su Internet a un prezzo che raggiunge i 30.000 dollari all’anno per ciascun utilizzatore. A ulteriore dimostrazione del fatto che, secondo la Celera, quello che va pagato è la conoscenza, non lo sfruttamento delle sue ricadute pratiche.
Non a caso la collisione e la polemica, con toni anche molto aspri, tra Celera e i ricercatori del settore pubblico del Pgu ‘Progetto Genoma Umano) è avvenuta proprio sul tema dell’accesso alla sequenza. La Celera ha rifiutato lo standard adottato dal consorzio pubblico e ha rivendicato il diritto dell’industria di imporre criteri propri, non tanto per lo sfruttamento commerciale delle scoperte tramite brevetti su prodotti, applicazioni o invenzioni in genere, diritto riconosciuto da tutti, quanto quello di proteggere direttamente l’accesso ai dati della ricerca scientifica di base. Abbiamo visto qual è stata la proposta di Venter: dati pubblicati ogni tre mesi, accessibili ai ricercatori pubblici e no profit a canone zero o molto basso (5), divieto di diffusione delle informazioni contenute nel suo data base ad altri soggetti. Il “modello Celera” prevede una configurazione “a stella”, il cui centro è l’archivio dell’azienda. Come afferma il suo presidente: “Non vogliamo che i ricercatori ridistribuiscano i nostri dati in competizione con noi”.
Ancora una volta, il modello al quale si richiama esplicitamente Venter è quello del giornale quotidiano: “io compro il giornale e io lo leggo”. Questa impostazione, che assimila la ricerca scientifica e i suoi risultati all’informazione latamente estesa, e in particolare ai mass media e alle notizie da esse diffuse, è stata accolta e premiata, dato il gran numero di enti, anche pubblici, che hanno sottoscritto accordi con la Celera., tra i quali va in particolare segnalato l’Uk Medical Research Council, che garantisce, tramite un canone il cui ammontare non è stato reso noto, l’accesso di alcuni laboratori pubblici britannici alla banca dati aziendale. A detta degli scienziati, il data base privato è meglio organizzato, con strumenti informatici più potenti ed efficienti, rispetto al GenBank pubblico. Tuttavia, il problema è che l’informazione che vi è contenuta, almeno per quanto riguarda il genoma umano, è del tutto simile a quella dell’archivio pubblico. Per ammissione della Celera stessa infatti, la sequenza privata è anche un ampliamento e una rielaborazione dei dati che il Pgu rende disponibili ogni 24 ore. Questo è uno degli aspetti più curiosi e interessanti da approfondire della presunta gara tra Celera e Pgu: la prima avrebbe sempre avuto a disposizione i dati pubblici, più i propri. In termini quantitativi sarebbe sempre stata in vantaggio, anche di una sola base, proprio grazie alla politica del consorzio pubblico. Il canone di accesso avrebbe un maggior senso se servisse ad utilizzare come uno strumento di servizio le applicazioni informatiche elaborate dall’azienda (che a questo a scopo ha recentemente acquistato una compagnia informatica, la Paracel, per 283 milioni di dollari), ma non per conoscere la sequenza di per sé.
I molti nodi e i delicati problemi, sollevati da questa impostazione, vennero puntualmente al pettine al momento della pubblicazione dei risultati della ricerca. Il consorzio pubblico non ammetteva deroghe al principio e alla pratica tradizionale del rilascio preliminare dei dati nel GenBank, l’archivio pubblico. Mentre la Celera, contrariamente a quanto era avvenuto con la sequenza del moscerino della frutta, che aveva concesso di pubblicare senza alcuna restrizione – in parte anche per confermare la validità della propria strategia di sequenziamento shotgun, che consiste nell’analizzare contemporaneamente migliaia di frammenti del Dna lunghi non più di 500 basi, per riassemblare il mosaico solo alla fine – in questo caso affermò che la sua sequenza umana era troppo preziosa per essere resa disponibile presso il GenBank. Essa richiedeva quindi, come condizione imprescindibile, un accesso ai dati controllato autonomamente sul proprio sito web: tuttavia manifestava piena disponibilità ad un accesso libero per utenti accademici o ricercatori no profit.
Le candidate ideali per ospitare la pubblicazione dei risultati erano le due più prestigiose riviste scientifiche, la britannica ‘Nature’ e la statunitense ‘Science’, che reagirono in modo significativamente diverso alle richieste della Celera. La prima poneva esplicitamente la condizione di consentire ai lettori un accesso ai dati genetici contenuti nei manoscritti diretto, affidabile, libero da restrizioni e gratuito e pretendeva il loro invio in archivi pubblici, come il GenBank o altri, purché equivalenti in termini di disponibilità illimitata, aggiungendo le coordinate dei dati al momento della pubblicazione. La seconda si limitava invece ad affermare la necessità di un equilibrio tra gli interessi della scienza e quelli degli autori della ricerca, pubblici o privati che fossero, anche elaborando “nuovi modi per rendere disponibili i dati prodotti dalle imprese private” (6). Donald Kennedy, il direttore di ‘Science’ subì; come ricorda lui stesso, pressioni crescenti per rifiutare l’articolo della Celera a queste condizioni: “ricevetti già a settembre un memorandum di Lander con tre o quattro bozze di accordo per l’accesso ai dati che lui giudicava assolutamente inaccettabili, e una che invece approvava” (7). Le bozze preliminari, che uscivano via via dai negoziati in corso, diffuse in settori importanti dell’establishment accademico ed editoriale, vennero giudicate discriminatorie ed inaccettabili da gran parte del mondo della ricerca pubblica, che ribadiva il presupposto inderogabile dell’accesso libero per tutti. I ricercatori più eminenti si mobilitarono e avviarono una campagna di ‘e-mail’ nei confronti di Kennedy, sottoscrivendo, in particolare, una petizione nella quale si esprimeva “preoccupazione per il fatto che ‘Science permettesse di restringere la disponibilità di accesso ai dati”, un atteggiamento che “avrebbe potuto aprire la porta a un comportamento ostruzionistico simile da parte di altri autori, con conseguenze assolutamente negative per la scienza” e che si concludeva con l’invto alla rivista “a non fare questo passo senza precedenti” (8).
Alla fine fu raggiunto, tra rivista e Celera, un compromesso che prevedeva l’accesso ai dati pertinenti per l’articolo (la sequenza del genoma umano) tramite registrazione presso il sito web dell’azienda, secondo condizioni diverse a seconda dell’utente, così specificate (9):
– Singoli ricercatori no profit: nessun costo. Accesso e salvataggio dei dati (download) e loro utilizzo per articoli, brevetti e ricerca, consentiti tramite accettazione della clausola di non vendere o distribuire dati a terzi;
– Ricercatori universitari: stesse condizioni, ma l’accordo doveva essere siglato a livello di istituzioni di appartenenza;
– Ricercatori dell’industria privata: nessun costo di utilizzo dei dati solo per validare o falsificare i risultati dell’articolo su ‘Science’. Accordo di accesso denominato Materials Transfer Agreement, in cui ci si impegnava a non usare i dati a scopi commerciali in generale;
– Uso dei dati a scopi commerciali: non consentito, se non tramite accordo privato tra le aziende.
Per salvaguardarsi rispetto al rischio di violazione degli accordi presi, ‘Science’ ottenne di conservare presso la redazione una copia digitale degli archivi della Celera, in modo da poterla rendere disponibile nel caso l’azienda rendesse difficoltoso l’accesso diretto ai dati sul suo sito.
Il giorno successivo, preso atto della situazione, i ricercatori del Consorzio pubblico, dopo un dibattito interno che vide prevalere l’opinione contraria a venire a patti con la Celera e con ‘Science’, cui si imputava di essere piegata alle esigenze industriali in tema di accesso alla richiesta, rispetto a coloro che avrebbero invece preferito pubblicare i due articoli sulla stessa rivista, inviarono il proprio manoscritto a ‘Nature’ Alla conferenza stampa di Londra, convocata per presentare il numero di quest’ultima rivista il 12 febbraio, lo stesso giorno in cui a Washington veniva presentato il numero di ‘Science’, gli scienziati inglesi attaccarono duramente la Celera e il Wellcome Trust, la fondazione inglese no profit che aveva generosamente finanziato il Progetto genoma Umano, proibì ai gruppi da essa finanziati di sottoscrivere il data base di quell’azienda. A Washington, oltre a scaramucce e battibecchi sulla distribuzione dei posti in sala tra i redattori delle due riviste, ci fu un violento scambio pubblico di accuse reciproche tra Venter e Eric Lander, matematico, direttore del laboratorio principale del Progetto Genoma Umano, il Whitehead Institute Genome Center, nonché fondatore e direttore della Millennium Pharmaceuticals, impegnata nel campo della genomica e dell’ingegneria genetica.
La ricostruzione di questa accesa controversia ci fa capire, come ha del resto avuto occasione di rilevare lo stesso direttore di ‘Science’ (10), quanto sia mutato il lessico della nuova scienza, in particolare della biologia contemporanea, che si arricchisce continuamente di nuovi termini, presi a prestito dal mondo legale ed economico, come ‘informazione proprietaria’, ‘diritti riservati’, ‘non redistribuzione’, ‘diritti di priorità’, ‘equilibrio costi-benefici’, e costretta a muoversi ogni giorno di più tra postille e clausole in calce. L’uso di questo lessico è la conseguenza della natura ibrida che diversi campi della ricerca stanno assumendo, natura sottolineata con la solita franchezza da Venter, che nel presentare nel 1008 la Celera Genomics e i suoi obiettivi così si esprimeva: “La comunità scientifica crede che il nostro sia solo un progetto economico e la comunità economica invece pensa che sia solo un progetto scientifico. La realtà è che faremo entrambe le cose. Il progetto economico funzionerà sole se facciamo una ricerca di livello mondiale e quello scientifico solo se faremo un progetto economico di livello mondiale. Noi stiamo implementando un cambiamento radicale in biologia, un approccio che coniughi il meglio dei due mondi: finanziamenti privati e libertà accademica” (11).
Il ricorso a questo nuovo “modello” era come si è visto, almeno in parte ispirato dal tentativo di trovare un rimedio a uno dei rischi a suo tempo rilevati da Arrow, e cioè l’incompleta appropriabilità dei dati e dei risultati della ricerca scientifica. Rimaneva comunque in agguato il terzo rischio, e cioè l’impossibilità di valutarne con precisione, ex ante, l’utilità, connesso con la difficoltà di assoggettare il risultato dell’attività di ricerca, che è essenzialmente informazione di natura semantica e pragmatica, a valutazioni e misurazioni di carattere economico e di stabilirne il valore in termini monetari. Che non si trattasse di un pericolo puramente ipotetico e virtuale è dimostrato proprio dalla clamorosa bocciatura, da parte del mercato, del “modello Celera”, inizialmente basato sull’equiparazione tra mondo della ricerca e mondo dell’informazione e dei mass media. Quasi nessuna delle grandi compagnie farmaceutiche ha sottoscritto infatti l’abbonamento con la Celera, giudicandolo troppo costoso, per cui la maggior parte dei “clienti” dell’azienda è composta proprio dai ricercatori universitari e dai laboratori pubblici, cioè da quegli utenti dai quali, per le clausole pattuite con ‘Science’, non è possibile attendersi grandi profitti. Non a caso in una intervista, rilasciata nel febbraio 2002, l’allora presidente della Celera, Tony White, ha affermato sarcasticamente: “Qual è oggi il nostro vantaggio competitivo? Forse vi sorprenderò, ma in questo momento non posso dare una risposta chiara e sicura” (12). Non si trattava di eccesso di modestia: il titolo dell’azienda, che al momento dello storico annuncio del raggiungimento del traguardo della mappatura del genoma umano era arrivato a 240 dollari, alla fine del 2001 si poteva comprare a prezzi stracciati, a soli 15 dollari. Il fallimento economico (e non certo scientifico) del progetto ha portato in quello stesso anno alla liquidazione del fondatore della Celera J. Craig Venter, sostituito dall’ex numero due Kathy Ordonez, e alla ridefinizione della “missione” e degli obiettivi dell’azienda, che, come si è visto, dal gennaio del 2002 ha cominciato a sviluppare in proprio prodotti farmaceutici, tramite una nuova società appositamente costituita, la Celera Therapeutics.
Questa storia, qui ricostruita a grandi linee, è istruttiva per almeno due aspetti:
- la profonda riorganizzazione del lavoro di ricerca che il Progetto Genoma umano, ha richiesto, per poter essere sviluppato, con l’attivazione di una rete di laboratori specializzati in settori disciplinari diversi, fortemente orientati ai risultati e collegati tra di loro all’interno di un’organizzazione decentrata ma funzionale al raggiungimento di obiettivi condivisi, in cui possano brillare le numerose competenze necessarie al loro raggiungimento anche e soprattutto grazie al progressivo emergere e consolidarsi di uno sfondo comune di conoscenze sempre più ampio e approfondito. Ne è nato un modello di lavoro internazionale fortemente orientato verso la cooperazione (e in questo caso, come si è visto anche misto, pubblico-privato con la collaborazione-competizione tra un consorzio pubblico e un’industria privata), basato su un approccio centralizzato nel porre obiettivi condivisi, stabiliti attraverso approfondite discussioni pubbliche (nel caso specifico del Progetto Genoma Umano e della costituzione del Consorzio pubblico, per esempio, questa discussione è durata sei anni prima dell’effettiva partenza del progetto), ma decentralizzato nello svolgimento, con risultati accessibili 24 ore su 24 da parte di tutti;
- la crescente importanza del nesso tra conoscenza scientifica e comunicazione e, come si è visto, il profilo inedito da esso assunto in seguito all’assimilazione dell’informazione scientifica all’informazione tout court.
4. Gli ulteriori sviluppi: la ricchezza della rete e le sue conseguenze
Dal 2002 a oggi il panorama della comunicazione scientifica e del suo rapporto con lo sviluppo della ricerca si è ulteriormente sviluppato e modificato in parte in seguito alla sempre maggiore incidenza e diffusione del web, che ha infranto l’ordine sequenziale e la tenuta di quei filtri che in passato contraddistinguevano il percorso dei risultati dal ricercatore al grande pubblico; in parte per un profondo rimescolamento della distribuzione della parti in questo complesso scenario.
Per quanto riguarda il primo aspetto, e cioè l’influsso del web e della rete, esso comincia a far emergere sviluppi che modificano in maniera significativa sia il quadro proposto da Arrow, sia quello che abbiamo chiamato “il modello Celera”. Particolarmente significative, da questo punto di vista, sono le recenti considerazioni di Yochai Benkler (13)., il quale pone al centro dell’attenzione l’emergere e il consolidarsi, in seguito alla larghissima diffusione e alla relativa economicità dei mezzi necessari a produrre informazione, di un’economia dell’informazione in rete alternativa alla tradizionale economia dell’informazione industriale. Ciò che caratterizza questa nuova fase, si afferma fin dalla prima pagina del testo, “è che azioni individuali decentrate – cioè le nuove e rilevanti condotte cooperative coordinate per mezzo di meccanismi non commerciali radicalmente distribuiti, che non dipendono da strategie proprietarie – giocano un ruolo molto più grande di quanto non fosse, o avrebbe mai potuto essere, nell’economia dell’informazione industriale. Catalizzatori di questo cambiamento sono l’affermarsi della tecnologia di fabbricazione dei calcolatori e dei suoi effetti a catena attraverso le tecnologie di comunicazione e storaggio di informazione. La terza novità, che per gli osservatori è forse la più radicale, più nuova e più difficile da comprendere, è l’affermarsi di grandi progetti cooperativi su larga scala dediti alla produzione orizzontale di informazione, conoscenza e cultura. Essi sono esemplificati dall’emergere del free software e del software open source. Ci stiamo accorgendo che questo modello non vale solo per il cuore delle nostre piattaforme software, ma si sta espandendo in tutti i settori dell’informazione e della produzione culturale […], dalla produzione peer-to-peer di enciclopedie, alle news e agli editoriali fino all’intrattenimento immersivo.
Utilizziamo proprio uno dei frutti di questi progetti cooperativi su larga scala, e cioè Wikipedia, per ricordare che “per peer-to-peer (o P2P) si intende una rete di computer o qualsiasi rete informatica che non possiede client o server fissi, ma un numero di nodi equivalenti (peer, appunto) che fungono sia da client che da server verso altri nodi della rete. Questo modello di rete è l’antitesi dell’architettura Client-server. Mediante questa configurazione qualsiasi nodo è in grado di avviare o completare una transazione. I nodi equivalenti possono differire nella configurazione locale, nella velocità di elaborazione, nella ampiezza di banda e nella quantità di dati memorizzati. L’esempio classico di P2P è la rete per la condivisione di file (File sharing)”.
L’aspetto interessante e la matrice comune di tutte le esperienze analizzate da Benkler è che esse mettono radicalmente in discussione una concezione della mente e dell’intelligenza centralizzata o unificata per proporne una, radicalmente alternativa, secondo la quale l’intero sistema assomiglia piuttosto a un patchwork di reti altamente cooperative, non omogenee e distribuite, assemblate da una complicata storia di bricolage che ne fa non un’entità unitaria, ma piuttosto una collezione di processi eterogenea, che può ovviamente essere considerata a più di un livello. Si ha così un sistema caratterizzato da una forma di intelligenza distribuita che Derrick De Kerckhove ha chiamato, com’è noto, “intelligenza connettiva” (14).
L’intelligenza connettiva è, secondo la definizione che egli ne fornisce, una forma di connessione e collaborazione tra soggetti individuali e collettivi diversi che è il risultato di una condivisione tra loro costruita sulla base di uno scambio dialogico. Il tratto distintivo di questa modalità di pensiero, che la differenzia dalle tipologie che rientrano all’interno di quella che può essere chiamata “intelligenza collettiva” è che, a differenza di quanto generalmente avviene in quest’ultima, all’interno dell’intelligenza connettiva ogni singolo individuo o gruppo mantiene la propria specifica identità pur nell’ambito di una struttura molto articolata ed estesa di connessioni. Siamo dunque di fronte a un processo di esteriorizzazione dell’intelligenza, che diventa un processo supportato e disvelato dalla rete.
Quella connettiva è pertanto una forma di intelligenza, determinata dalle relazioni dei singoli agenti, che può produrre (e generalmente produce) apprendimento o innovazione, migliorando le competenze e le prestazioni non solo del sistema nel suo complesso, ma anche dei singoli che ne fanno parte. Proprio per questo la società digitale, come ha rilevato di recente Granieri (15), diversamente da tutte le altre grandi epoche della storia, non nasce dall’intuizione, dalla volontà o dall’azione di pochi, ma dalla collaborazione di milioni di persone In questo scenario oggi si aprono prospettive di cui è difficile precedere gli effetti futuri. Il network del Weblog, ad esempio, che è uno spazio in cui qualsiasi individuo, anche privo di competenze tecniche, può pubblicare sul Web ciò che desidera, sta modificando la rete, trasformandola in una vera e propria “sfera pubblica”, che stimola nuove forme e modalità di partecipazione e all’interno della quale si costituisce e si viene via via ampliando uno “sfondo condiviso” di opinioni e conoscenze e si stabiliscono e si consolidano relazioni di fiducia reciproca tra i diversi soggetti. Quando si parla, come si è appena fatto, di “intelligenza connettiva” o “distribuita” non ci si sta, di conseguenza, riferendo a concetti astratti, a schemi interpretativi, ma a processi concreti, che sono in corso, di cui sono ormai visibili e tangibili le manifestazioni e gli effetti, che non a caso sono ormai divenuti oggetto di studio di intere schiere di ricercatori, che si stanno sforzando attivamente di comprenderne i meccanismi e di descrivere le logiche che ne governano il funzionamento.
Quello che si sta quindi profilando è la sempre maggiore incidenza, sul piano economico, oltre che su quello sociale e culturale, non solo di organizzazioni formalmente costituite, ma anche di collettività non strutturate le quali, liberate dalla morsa dei monopolisti (privati o pubblici) che dominavano la scena della produzione industriale di informazione, conoscenza e cultura, riescono a proporre e realizzare molteplici alternative rispetto a questo scenario tradizionale, stimolando e favorendo il passaggio da un ambiente informazionale dominato dall’agire proprietario e di mercato a un mondo nel quale le transazioni non proprietarie e non commerciali rivestono un ruolo sempre più importante accanto alla produzione commerciale.
Come evidenzia da subito lo stesso Benkler, al centro del libro, vi sono quattro scelte metodologiche ben precise ed esplicite. La prima è l’attribuzione alla tecnologia di un ruolo assai significativo. La seconda è la tendenza a incentrare la spiegazione sulle relazioni sociali che operano nel dominio economico più che in quello sociologico. La terza e la quarta sono più interne alla teoria politica liberale: si tratta, in particolare, della proposta di una “lettura” di quest’ultima sviluppata considerando da una prospettiva di libertà la struttura economica e i limiti del mercato e delle istituzioni che lo sorreggono, piuttosto che accettare il mercato com’è e difenderne o criticarne gli aggiustamenti dal punto di vista della giustizia distributiva; e, infine, dell’adesione a un approccio che enfatizza fortemente il ruolo dell’azione individuale nelle relazioni non commerciali.
In proposito l’autore sottolinea che gran parte della discussione riguarda la scelta tra mercati e comportamenti sociali non di mercato. In molti di questi comportamenti lo stato non svolge alcun ruolo o svolge un ruolo negativo, a differenza di quanto avanzato dai settori più progressisti del pensiero politico liberale. E’ questo il motivo che lo spinge, dichiaratamente, a occuparsi degli esseri umani reali nei loro contesti storici effettivi, e non di rappresentazioni astratte e astoriche e a misurare, di conseguenza, la libertà e la giustizia di individui storicamente situati in modo empirico e in prima persona. Come egli afferma in modo esplicito, una persona la cui vita e le cui relazioni sono completamente dominate da forze esterne non è libera, non importa se queste forze sono classificabili come di mercato, autoritarie o legate ai valori tradizionali di una comunità. Ciò tuttavia non comporta affatto, a suo giudizio, l’adesione all’anarchismo o al liberismo, visto che non solo si assume e si dà per scontato il presupposto che le organizzazioni, le comunità e le altre strutture esterne siano pervasivamente necessarie affinché gli esseri umani prosperino e agiscano liberamente e con efficacia, ma ci si impegna a corroborare questo assunto con i molteplici esempi proposti e analizzati in profondità della crescente incidenza di queste strutture sui soggetti individuali. Egli si limita però a prendere in considerazione le prime solo dal punto di vista dei loro effetti su questi ultimi, in quanto ritiene che il loro valore sia puramente derivativo, visto che discende dall’importanza che hanno per gli esseri umani in carne e ossa che le abitano e che nel bene e nel male ne sono strutturati. L’assunzione di questo punto di vista lo induce ad asserire che il suo interesse per la struttura del mercato e l’organizzazione economica si spinga al cuore delle questioni fondamentali sulla libertà, più di quanto i teorici liberali non siano abituati a fare.
Quello proposto da Benkler è dunque uno scenario nel quale la libera circolazione dell’informazione e della comunicazione scientifica in Internet, abbattendo i tradizionali ostacoli e filtri che, come si diceva, e in passato contraddistinguevano il passaggio dei risultati dal ricercatore al grande pubblico, sta dando luogo a forme di cooperazione e di collaborazione in gruppi non strutturati che si sottraggono non solo ai tradizionali meccanismi di mercato, ma anche alla logica dall’agire proprietario. Grazie alla crescente e sempre più capillare diffusione della comunicazione scientifica la conoscenza assume così sempre più la veste e la funzione di una risorsa a disposizione del pubblico, e alla cui crescita e applicazione ciascuno può fornire il proprio contributo trasformandosi da semplice destinatario di essa a protagonista attivo e artefice del suo sviluppo.
5. Il rimescolamento delle carte provocato dalla globalizzazione.
Per quanto riguarda il secondo aspetto al quale si faceva riferimento, e cioè il profondo rimescolamento della distribuzione della parti nel complesso scenario che sta via via prendendo forma in seguito alla crescita della società della conoscenza e alla globalizzazione, per dare l’idea del cambiamento in atto è sufficiente ricordare due ordini di dati:
- per la prima volta nel 2006 gli investimenti globali in ricerca scientifica e sviluppo tecnologico (R&S) hanno superato il valore dei 1.000 miliardi di dollari (a parità di potere d’acquisto): mai il mondo aveva speso così tanto per la scienza e l’innovazione tecnologica;
- e per la prima volta nel 2006 l’Asia è tornata a essere il continente dove si investe di più in ricerca scientifica e tecnologia, dopo che negli ultimi quattrocento anni il primato era stato detenuto prima dall’Europa e poi dal Nord America. L’asse dell’innovazione si è spostato dunque dall’Atlantico Settentrionale (sulle sue sponde affacciano paesi responsabili del 55% della spesa mondiale in R&S), all’Indopacifico (sulle sue sponde affacciano paesi responsabili di oltre il 75% della spesa mondiale in R&S). I protagonisti della nuova fase storica già sono, e non è azzardato supporre che saranno sempre di più in futuro, diversi dai protagonisti dell’era industriale.
“il mondo è piatto” (16), come sostiene Thomas L. Friedman che ne ha fatto il titolo di un suo bestseller. Come ha osservato Amartya Sen, l’economista indiano vincitore del premio Nobel per l’economia, la caduta del muro di Berlino ha rimosso un ostacolo che impediva una visione globale del nostro futuro e di pensare al mondo come a un tutto. In sanscrito, egli ricorda, c’è un bel racconto su una rana che è nata in un pozzo e lì è vissuta per tutta la vita: “la sua visione del mondo è limitata al pozzo: E proprio così era il mondo per molte persone prima della caduta del Muro. Dopo, è stato come se la rana avesse potuto improvvisamente comunicare con le rane che vivevano in tutti gli altri pozzi…Se celebro la caduta del Muro è perché sono convinto che possiamo imparare moltissimo gli uni dagli altri. Quasi tutta la conoscenza nasce imparando da coloro che si trovano al di là dei propri confini” (17).
Da questa immagine scaturisce un’idea della conoscenza come il risultato di un processo di costruzione collettivo, sociale. Ne consegue che l’unica forma di apprendimento efficace è la partecipazione a tale processo e che la conoscenza cresce tanto meglio e tanto più, quanto più la si condivide. Si ha, pertanto, una crescente incidenza della condivisione, e quindi della comunicazione, sullo stesso processo di sviluppo della conoscenza, e in particolare di quella scientifica. La possibilità, ormai disponibile a un livello che non ha precedenti nella storia, che un numero di persone straordinariamente elevato (e che tende ad aumentare sempre più) ha di comunicare, interagire e collaborare tra loro su scala planetaria sta determinando, come rileva ancora Friedman, il passaggio dal “pensare in modo verticale”, che significa chiedersi chi controlla un certo sistema e come si sviluppa, al “pensare in modo orizzontale”, per il quale prioritaria non è la questione del controllo e della gestione, ma la possibilità di connettere nel modo migliore e più efficace i nodi di una rete in modo da riuscire a ricavare il massimo di informazioni da tutte le fonti insieme.
Proprio il passaggio da un modello di creazione del valore sostanzialmente verticale, basato su comando e controllo, a un modello sempre più orizzontale, basato su connessione e collaborazione, ci fa capire sempre più e sempre meglio che la disuguaglianza tra i popoli, come quella tra gli individui, è sinonimo di spreco creativo, come evidenziano del resto i risultati ormai convergenti di svariate ricerche, le quali mostrano che ad alti tassi di disuguaglianza corrisponde un ritardo, non un’accelerazione, anche nella crescita economica, e non soltanto nel progresso sociale. Ecco perché la crescente apertura a nuovi contesti, a nuove culture, a nuove idee, a nuovi sogni, e la loro crescente incidenza nello scenario mondiale va vista come un’opportunità per tutti, e non come un rischio. Come scrive Richard Florida, “la nostra economia avrebbe moltissimo da guadagnare se fossimo più … aperti a questa idea” (18).
1. K.J. Arrow, Economic Welfare and the Allocation of Resources for Invention, in Lamberton (a cura di), Economics of Information and Knowledge, Penguin Books, London, 1971.
2. Human genomes, public and private, ‘Nature’, 409,, 15 feb., p. 745.
3. Le notizie relative alla Celera Genomics, alla corsa alla mappatura del genoma umano e ai problemi, per molti aspetti inediti, cui essa ha dato luogo, sono tratta da una brillante e preziosa tesi di un mio studente, Matteo Bartocci, dal titolo la nuova biologia: Dolly e il Progetto Genoma Umano, discussa nella sessione straordinaria dell’anno accademico 2000-2001 alla Facoltà di Filosofia dell’Università di Roma “La Sapienza” e premiata con il massimo dei voti e la lode.
4. Applera Corporation, ‘Prepared statement of j. Craig Venter, President and Director, The Institute of Genomic Research, before the Subcomittee on Energy and Environment, Us House of Representatives Committee on Science’, audizione al Congresso USA del 17 giugno 1998.
5. In realtà, nel marzo 2002, il costo di abbonamento per le università era di 30mila dollari l’anno per ogni singolo utente/ricercatore. Non sono previsti abbonamenti collettivi per dipartimenti o laboratori. Ogni ricercatore ha una propria chiave di accesso (nome utente e password). Non è consentita la diffusione di parti consistenti della sequenza, mentre è permessa senza restrizione la pubblicazione e la condivisione dei risultati della ricerca [Fonte: Celera Academic-No profit Principal Investigator/Designee Enrollment Form e Academic-No profit Order Form, marzo 2002]. Nel gennaio 2000, in piena corsa al genoma, la Celera aveva diffuso stime di un canone di 5mila dollari per ogni laboratorio pubblico. Già a marzo 2000 le stime andavano da 5mila a 20mila dollari.
6. E. Marshall, Sharing the glory, not the credit, ‘Science’, 291, 5507, 16 feb. 2001, 1189-93.
9. Cfr. E. Marshall, Celera and ‘Science’. Spell Out data Access Provisions, ‘Science’, 291, 5507, 16 feb. 2001, 1192.
10. D. Kennedy, Enclosing the research commons, ‘Science’, 294, 5550,14 dic. 2001, 2249
11. Cit. in E. Marshall, A high-stake gamble on genome sequencing, ‘Science’, 284, 5422, 18 giugno 1999, 1906-09 (i corsivi sono miei).
12. A. Pollack, The genome is mapped. Now he wants profit, ‘New York Times’, 24 feb. 2002.
13. Yochai Benkler La ricchezza della rete. La produzione sociale trasforma il mercato e aumenta la libertà. Prefazione di .F. Carlini, Università Bocconi editore, Milano, 2007.
14. De Kerckhove ha sviluppato questa tematica soprattutto nelle opere Connected intelligence: the arrival of the Web society, edited by Wade Rowland, Kogan Page, London 1998, e The architecture of intelligence, Birkhäuser, Basel-Boston, 2001.
15. G. Granieri, Blog Generation, Laterza, Roma, 2005.
16. T. L. Friedman, Il mondo è piatto. Breve storia del ventunesimo secolo. Mondadori, Milano, 2006.
18. R. Florida, La classe creativa spicca il volo. La fuga dei cervelli: chi vince e chi perde, Mondadori, Milano, 2006, p. 94.