“Scienza innovativa” è un’affermazione che in molti casi può risultare una tautologia. Come si fa però a distinguere la “scienza innovativa” dalla ricerca di routine? Non si tratta solo di leggere nella storia della scienza. Secondo il proverbio che il tempo è galantuomo, oggi riusciamo a distinguere fra le ricerche, indubbiamente importanti, di Ticho Brahe e il lavoro di Copernico, ma il problema consiste nello stabilire quali sono le ricerche da portare avanti, con finanziamenti ed altro, e quali no.
In due articoli apparsi su Nòva (l’inserto del Sole 24 Ore dedicato a scienza, tecnologia, innovazione) del 6 Marzo, Guido Romeo affronta il problema della misurazione della ricerca. Nel primo articolo “Genio e misuratezza“, egli mostra come alcune delle ricerche più significative del secolo scorso non siano state subito riconosciute come tali.
La teoria delle stringhe ideata da Gabriele Veneziano alla fine degli anni Sessanta…
‘sembrava un’eresia, ma per molti oggi è la base di una seconda rivoluzione copernicana in grado di disegnare un nuovo modello del Cosmo’.
Ma anche l’intuizione di Craig Venter che ha ideato un metodo più efficace per il sequenziamento del Dna non ha avuto all’inizio vita facile:
‘James Watson, Nobel per la scoperta della doppia elica nel 1954, liquidò il progetto come “degno di un branco di scimmie”‘.
Lo stesso Einstein, ricorda Romeo, …
‘nel 1921 ricevette il Nobel non per la teoria della relatività che ha cambiato la fisica moderna, ma per i suoi lavori sull’effetto fotoelettrico’.
L’altro articolo “Viaggio al centro della scienza” si apre con l’affermazione:
‘La scienza vuole misurare tutto l’Universo, ma non ama misurare se stessa.’
Affermazione chiarita nel sottotitolo “Esiste un criterio per giudicare la ricerca? Gli studiosi lo stanno ancora cercando”.
D’altra parte, giudicare la ricerca è questione cruciale:
‘conoscere la qualità della ricerca scientifica è un dato importantissimo a moltissimi livelli. Dall’assegnazione di finanziamenti, cattedre e borse di studio all’interno di un singolo ateneo, alle decisioni politiche e strategiche dei governi, ma non è raro imbattersi in graduatorie che usano i sistemi più diversi.’
Il metodo proposto da Eugene Garfield, fondatore dell’Isi, l’Istituto per l’informazione scientifica (oggi Thomson Scientific), che da oltre 45 anni registra l’impatto delle pubblicazioni dei ricercatori di tutto il mondo è basato sull’analisi del numero di citazioni:
‘ogni articolo pubblicato nelle riviste scientifiche internazionali termina con una serie di riferimenti bibliografici. Analogamente a come avviene per Google, il noto motore di ricerca online, chi è nominato più spesso finisce in cima alla lista e una lunga lista di citazioni è spesso meglio di una montagna di pubblicazioni.’
Un metodo, però, che non trova un consenso generalizzato.
Il Nobel per la medicina Sydney Brenner considera le citazioni molto conservatrici, utili più che altro alla sociologia.
Possibilista, con riserva, Jacopo Meldolesi, direttore del dipartimento di neuroscienze dell’Istituto San Raffaele di Milano e presidente della Federazione italiana delle scienze della vita:
‘l’analisi delle citazioni rimane comunque uno strumento importantissimo e dovrebbe essere utilizzato più spesso, soprattutto in Italia. Ma con le dovute cautele. Per valutare un giovane ricercatore, ad esempio, va considerata l’originalità del suo lavoro, che può non essere ancora molto citato’.
Parallelamente alla necessità di valutare le ricerca “buona”, sorge il quesito di come smascherare le “bufale”.
L’articolo, a firma la.ri, “Come smascherare le bufale e farle fruttare” illustra le strategie che si possono adottare nei confronti di quelle persone…
‘che dichiarano di avere elaborato la dimostrazione di un grande problema irrisolto, o una teoria straordinariamente nuova, in grado di far vacillare le precedenti, o di spiegare fenomeni ancora misteriosi, un’idea così nuova e destabilizzante che nessuno l’accetta’.
Accanto alla strategia del prof. Massimo Ferri, dell’Università di Bologna (vedi Matematici dilettanti), l’articolo riporta quella di John Baez, che invece è un fisico matematico dell’Università della California, noto…
‘per aver sviluppato il Crackpot Index , che può essere tradotto come “indice delle assurdità”. Trattasi di un semplice metodo di valutazione per classificare i potenziali contributi rivoluzionari della fisica. Eccone un breve estratto: si parte con cinque punti di cortesia, bisogna aggiungere due punti per ogni considerazione chiaramente vacua e tre per quelle logicamente inconsistenti. Cinque se vengono utilizzati esperimenti complessi che contraddicono i risultati di esperimenti oramai largamente accettati. Altri cinque punti per ogni citazione di Einstein, Hawkins e Feynmann e per ogni parola scritta maiuscola.
Dieci punti per ogni nuovo termine che viene inventato, senza che sia data un’adeguata definizione, altrettanti se si inizia la descrizione della teoria spiegando per quanto tempo ci si è lavorato sopra, e per chi dice che una teoria ben accettata è dopotutto “solo una teoria”, come se questo fosse un punto a suo sfavore. O, ancora, per chi dice che la teoria corrente che si vuole scardinare è in grado di predire correttamente i fenomeni, ma non spiega perché questi accadano, o quale sia il loro meccanismo. Dieci punti se si dice che il proprio lavoro è l’inizio di un nuovo paradigma, e dieci punti se ci si paragona a Einstein. Venti se ci si paragona a Newton o se si pensa di meritare il Nobel. Trenta se si sostiene che Einstein alla fine della sua carriera stava proprio giungendo a conclusioni simili. Galileo, e il riferimento a una sorta di inquisizione contemporanea vale 40 punti. Cinquanta, infine, per chi assicura di avere una teoria rivoluzionaria, ma non dà alcuna concreta previsione che è possibile sperimentare.’
Come si può constatare, i metodi per misurare la scienza, sia in senso positivo che in senso negativo, sono essenzialmente empirici e più che altro basati sulla credibilità dell’autore. Se da un lato ciò va a salvaguardia della scienza “normale”, alla Kuhn, dall’altro rischia di vanificare gli sforzi verso l’innovazione, ed in un certo senso a deresponsabilizzare la verifica dei progetti.