L’enorme quantità di informazioni prodotte dalle fonti più diverse e la fragilità dei sistemi informatici, utilizzati per conservarle, stanno scavando una voragine fra noi e chi, in futuro, dovrà accedere ai dati e ai testi davvero rilevanti della nostra epoca, per studiare la storia del XX e XXI secolo oppure per affrontare questioni che avranno bisogno delle conoscenze acquisite oggi per essere capite o risolte. L’allerta, diffusosi inizialmente nelle comunità degli storici dei media, degli informatici e degli esperti di editoria digitale, ha avuto in tempi più recenti una discreta eco anche sui giornali.
All’estero, se ne è occupato fra gli altri il settimanale inglese New Scientist , e in Italia ne hanno parlato Il Corriere della Sera e Il Sole24ore nel suo inserto settimanale Nòva (ma i testi degli articoli non sono disponibili online), che ha anticipato i temi del convegno “2060: con quali fonti si farà la storia del nostro presente?”, promosso dalla Fondazione Telecom Italia e dal Politecnico di Torino.
La preoccupazione nasce da una constatazione di fondo, tanto banale quanto sorprendentemente sottostimata. Scrive Massimo Gaggi sul Corriere: «La carta rimane l’unico standard certamente capace di durare nel tempo, mentre le rivoluzioni tecnologiche rendono rapidamente obsolete tutte le nuove macchine che arrivano sul mercato». Ne abbiamo tutti esperienza comune: guardare oggi un filmato registrato appena una quarantina di anni fa in super 8 è praticamente impossibile. Anche una cassetta Vhs inizia a darci problemi. E floppy disk e MiniDisc, ancora più recenti, sono letti ormai da pochissimi computer, che hanno raggiunto da tempo l’età della pensione e che presto saranno sostituiti. Non solo: se anche in futuro, per recuperare i dati, le macchine per accedere a questi supporti fossero ricostruite, le informazioni potrebbero risultare comunque illeggibili, per via della fragilità delle memorie magnetiche, che durano dai cinque ai vent’anni. I Cd e i Dvd, se ben conservati, potrebbero arrivare forse a cento. Ma è comunque ben poca cosa rispetto alla carta: il libro più antico che si conosca porta la data dell’868 d.C. È stato scritto in Cina ed è ancora leggibile.
Non si creda che il problema della perdita dei dati riguardi soltanto le foto di famiglia o i ricordi personali, magari archiviati avventatamente su un Cd ormai inservibile (basta davvero poco per rovinarli). La stessa leggerezza sembra infatti essere stata commessa dalle più alte istituzioni e da importanti università e centri di ricerca. New Scientist e Il Corriere della Sera ne danno alcuni esempi clamorosi. «La manutenzione di centinaia di testate nucleari degli anni ’70 è costata al Pentagono 62 milioni di dollari più del previsto, perché per poter leggere manuali non disponibili su carta è stato necessario costruire da zero apparecchiature analogiche che risalgono a due generazioni fa» scrive il quotidiano italiano. Mentre, la Nasa, l’agenzia spaziale statunitense, affronta ostacoli simili nel recuperare i dati delle missioni spaziali degli anni ’60 e ’70, registrati su nastri magnetici fruibili da apparecchiature ormai inesistenti.
Ma se sul medio periodo le difficoltà maggiori sembrano riguardare la perdita di dati utili a far funzionare le tecnologie o a spingere in avanti il motore della ricerca e dell’innovazione, sul lungo periodo, di secoli o millenni, la questione si amplia ulteriormente: corriamo infatti il rischio di non lasciare agli storici del futuro tracce leggibili e significative della nostra epoca. Su tale aspetto si sono concentrati l’analisi di Nòva e gli interventi del convegno al Politecnico di Torino. Partendo, anche in questo caso, da un fatto che è sotto gli occhi di tutti, ma la cui rilevanza viene messa a fuoco solo ora. A sottolinearlo è Gabriele Balbi, storico dei media all’Università della Svizzera italiana di Lugano, intervistato da Luca Tremolada su Nòva: «C’è un paradosso a monte. Si vogliono conservare in maniera permanente oggetti che sono effimeri per natura, che sono nati per morire rapidamente». Balbi si riferisce in particolare al contenuto dei nuovi social media, dei blog e di network quali YouTube, che hanno un ruolo sempre più rilevante nel raccontare e determinare la storia contemporanea (si pensi all’uso che Barack Obama ha fatto di Facebook e Twitter durante la sua campagna elettorale). Ma esiste lo stesso problema anche per fonti la cui struttura è più tradizionale: volumi, manuali o raccolte di documenti che non sempre hanno un corrispettivo “fisico” (per esempio, i testi di Wikipedia o i libri che escono soltanto online), o il cui originale cartaceo rischia non ricevere le attenzioni necessarie alla sua conservazione una volta che il contenuto sia stato digitalizzato, a causa di una malriposta fiducia nella capacità dello strumento informatico di mantenersi nel tempo. Rispetto al primo punto, qualcosa si sta muovendo: la Biblioteca del Congresso americana, la più antica istituzione federale che ha il compito di conservare la memoria della storia statunitense, ha per esempio annunciato di recente di voler acquisire l’intero archivio del social network Twitter (ne ha parlato Il Corriere della Sera). Ma su entrambi gli aspetti pesa anche un’altra rilevantissima difficoltà. Come fa notare su Nòva lo scrittore di fantascienza e giornalista americano Bruce Sterling: «Gli storici non sono interessati tanto alla gran quantità dei documenti quanto alla loro rilevanza storica. […]. Archiviare tutto significa alla fin fine non dare valore a nulla». Con l’aggravante che ad avere le maggiori probabilità di sopravvivere saranno le opere che sono state riprodotte nel maggior numero di copie, come le hit della musica pop, i film blockbuster e i libri bestseller come Il Signore degli Anelli o Il Codice da Vinci.
Nell’era informatica sembriamo dunque aver dimenticato quanto sia importante tramandare alle generazioni future le pietre miliari del nostro sapere, aspetto che invece è stato ben chiaro ai nostri predecessori: basti pensare all’immane lavoro di traduzione e copiatura di testi che, operato dai monaci medievali, ha permesso di sviluppare nei secoli seguenti conoscenze filosofiche e scientifiche fondamentali (la medicina moderna, per esempio, deve moltissimo ai volumi tramandati in questo modo).
Esistono, peraltro, iniziative che hanno lo scopo di mantenere tali conoscenze nel tempo e di renderle accessibili a chiunque con un click. Sono gli archivi sul web, come per esempio Internet Archive (che ha da poco superato i due milioni di volumi digitalizzati), il Progetto Gutenberg (30.000 volumi) o il più recente Google Books. Ma il mezzo usato da queste immense banche dati, – in definitiva, dei supercomputer capaci di contenere quantità enormi di informazioni – sembra nuovamente poter essere vittima del tempo e della rapida obsolescenza delle tecnologie. Inoltre, questi archivi sono gestiti per lo più da privati. E, come sottolinea ancora Balbi: «Se un domani per questioni di bilancio un’azienda dovesse essere costretta a spegnere i propri server il danno sarebbe immenso. Che fare? O si decide che conservare è un asset politico internazionale. Oppure ci si affida a partnership tra pubblico e privato che però non sempre hanno funzionato». La discussione è aperta.
(fotografia: Floppy Disks In The Street di Jonathan Harford da Flickr)