La digitalizzazione del Patrimonio Librario Italiano. L’accordo Google-MiBAC

Il 10 Marzo 2010 è stato annunciato l’accordo di cooperazione tra Google e il Ministero per i Beni e le Attività Culturali (MiBAC) per la digitalizzazione e messa in rete, nei prossimi anni, di circa un milione di libri non coperti da Copyright conservati nelle Biblioteche Nazionali di Roma e Firenze. Il presente contributo vuole offrire una riflessione sul recente accordo Google-MiBAC, cercando di spiegare quali sono le condizioni che hanno portato all’accordo e quali sono le potenziali opportunità e criticità nella sfida alla digitalizzazione del patrimonio culturale italiano.

1. Verso la digitalizzazione del patrimonio librario italiano
Il 10 Marzo 2010 è stato annunciato l’accordo di cooperazione tra Google e il Ministero per i Beni e le Attività Culturali (MiBAC) per la digitalizzazione e messa in rete nei prossimi anni di circa un milione di libri non coperti da Copyright conservati nelle Biblioteche Nazionali di Roma e Firenze.
Dopo numerose e prestigiose biblioteche universitarie americane, tra cui Harvard e Princeton, il colosso della ricerca di informazioni sul Web si è spinto oltreoceano e punta ora al patrimonio librario europeo, ricco di opere antiche e rare. L’accordo sembra essere una soluzione vincente per entrambe le parti. Google si farà carico dei costi di digitalizzazione, ma avrà la possibilità di avere accesso gratuito e mettere a disposizione sulla sua biblioteca online (Google Books) i volumi delle Biblioteche Nazionali. Allo stesso tempo, le due biblioteche italiane avranno a disposizione copie digitali dei volumi senza l’onere del costo della digitalizzazione e potranno renderli disponibili anche sulle proprie piattaforme digitali, quali, ad esempio, Cultura Italia ed il progetto europeo Europeana.
Per quanto i media ne abbiano dato notizia e la partnership rappresenti senza dubbio un importante contributo alla conservazione e divulgazione del patrimonio culturale italiano, sono ancora da approfondire la posta in gioco e gli scenari futuri che questo accordo può prefigurare nelle sfide della digitalizzazione del patrimonio culturale italiano. E’ necessario soprattutto capire se, nel nuovo mondo della conservazione e dell’accesso ai contenuti culturali digitali, ci sia una tensione tra l’interesse pubblico che questi beni esprimono e quello privato di operatori commerciali che stanno avanzando sulla scena dell’informazione digitale. In Italia, il dibattito su questi temi si sta facendo sempre più vivo, come ad esempio dimostrano i contributi di De Robbio (2010) e Vitiello (2010).
Il presente contributo vuole offrire una nuova riflessione sul tema cercando di spiegare quali sono le condizioni che hanno portato all’accordo Google-MiBAC e quali sono le sue potenziali opportunità e criticità.

2. Perchè Google sta vincendo la corsa alla biblioteca digitale universale?

Per comprendere perché stia diventando sempre più importante la digitalizzazione del patrimonio culturale e in particolare di quello librario bisogna in primo luogo tenere presente l’evoluzione tecnologica che sta portando la produzione e conservazione dell’informazione su supporti digitali (Ciotti e Roncaglia, 2002). Dai supporti e sistemi analogici tradizionali, come la carta e l’inchiostro, si passa a supporti digitali che trasformano qualsiasi contenuto in bit e lo rendono assimilabile da computer e sistemi informatici. Inoltre, internet e il web hanno ridotto drasticamente i costi di accesso e divulgazione dei contenuti. In sostanza, i server e gli archivi informatici stanno creando nuovi e più efficaci metodi di conservazione e divulgazione dell’informazione e conoscenza.
Nel 2003 uno studio della School of Information Management & Systems della University of California, a Berkeley, ha tentato di misurare quanta informazione venga prodotta nel mondo. Secondo tale ricerca, nel 2002 sono stati prodotti complessivamente 5exabyte (1)  di informazione conservata su un qualche supporto. Di questi, la maggior parte (circa il 90%) è sparsa in milioni di dischi rigidi, ed è fatta di audio, filmati, documenti d’ufficio, messaggi (incluse email e instant messaging). Al contrario, l’informazione contenuta nei supporti cartacei e potenzialmente oggetto di conservazione nelle biblioteche sembra essere esigua: circa 39 terabyte di libri, e circa 200 terabyte di quotidiani, riviste e periodici di vario genere.
Questa parte abbastanza esigua dell’informazione è però quella che possiede il maggior valore culturale e, in molti casi, valore economico. Secondo Roncaglia (2006), prima di tutto c’è un’ovvia considerazione qualitativa: pur essendo una parte relativamente piccola dell’informazione che produciamo complessivamente, libri e riviste contengono molta parte dell’informazione “autorevole”, quella che ha più valore, e dunque che è più importante poter reperire. In secondo luogo, libri e riviste hanno in sé insita l’aspirazione alla diffusione universale. Per questo motivo, la digitalizzazione e divulgazione sul web di questi contenuti può rappresentare una priorità. Infine, quello dell’editoria su carta stampata è un mercato economicamente importante, e il suo incontro con le tecnologie digitali è almeno potenzialmente in grado di generare utili abbastanza appetibili.
Per questi motivi, la conservazione e divulgazione di testi in formato digitale rappresenta un sogno e una sfida rilevante del nuovo secolo. Tuttavia, per quanto i progetti di digitalizzazione del patrimonio librario possano muoversi sulle ali di ideali culturali, il successo di questi progetti è fortemente determinato dalle risorse economiche che possono essere investite e dalle tecnologie adottate per ridurre i costi della digitalizzazione di milioni di testi. In quest’ottica si può capire perché Google stia vincendo la corsa alla Biblioteca Digitale Universale.
I primi progetti di digitalizzazione sono stati di natura non commerciale – ispirati alla divulgazione libera e universale della conoscenza umana – e si sono basati principalmente sugli sforzi delle comunità scientifiche e del “volontariato telematico”. Tra questi si possono ricordare il Progetto Gutenberg e il Million Book Project. Il primo, lanciato nel 1971 da Michael Hart, ha messo online appena 33.000 testi di lingua inglese in pubblico dominio, basandosi sullo sforzo di volontari per ricopiare su file di testo le opere  (Hart, 1992). La seconda iniziativa, più strutturata e con ambizioni multiculturali, è iniziata nel 2001 mediante la collaborazione dell’Internet Archive e di alcune istituzioni di ricerca americane, indiane e cinesi. Il Million Book Project ha ricevuto più di 10 milioni di dollari di finanziamenti da istituzioni governative e organizzazioni non profit, avendo digitalizzato a fine 2010 oltre 1.5 milioni di libri in pubblico dominio (di cui 970.000 in lingua cinese).
In seguito a queste iniziative, la sfida alla digitalizzazione ha avuto un’accelerazione dal 2002-2003 con l’entrata in campo dei colossi del Web e dell’informatica. Il principale interesse per alcuni è lo sfruttamento commerciale, direttamente o indirettamente, dell’informazione contenuta nei libri digitalizzati mediante tutte le possibilità tecnologiche offerte da Internet e il Web. Ad esempio, nel 2003 il rivenditore online di libri Amazon aveva lanciato la funzionalità Search Inside the Book. Questa funzionalità permette la visualizzazione di estratti di più di 100.000 libri digitalizzati e venduti da Amazon. In questo caso, la digitalizzazione dei testi unita alla funzionalità Search Inside the Book permette agli acquirenti di migliorare la loro ricerca tra le opere e così l’esperienza di acquisto sul Web.
L’interesse di Google per la digitalizzazione del patrimonio librario sembra essere più ampio e con orizzonti di più lungo periodo. La missione di Google è infatti quella di organizzare le informazioni a livello mondiale e renderle universalmente accessibili e fruibili. E il successo commerciale di Google nel perseguire questa missione si fonda proprio sull’efficienza e superiorità del suo algoritmo di ricerca e sul sistema di pubblicità online profilata sulle ricerche degli utenti. Ma l’algoritmo per migliorare ha da un lato bisogno di sempre maggiori informazioni da esplorare e, dall’altro, di sempre nuove queries per raffinare i risultati di ricerca.  Per questo motivo, Google non si può accontentare dei contenuti pubblicati nelle pagine web, ma è alla continua ricerca di nuove fonti informative e digitali, anche a costo di investire nella digitalizzazione delle stesse. In questa prospettiva, la digitalizzazione delle informazioni contenute nel patrimonio librario offre contenuti di altissima qualità e potenzialmente molto ricercabili dagli utenti (Stross, 2008).
Il progetto di digitalizzazione librario di Google – prima denominato Google Print e poi Google Books – è iniziato nel 2004 e si è subito imposto per i suoi ambiziosi obiettivi. Google ha prospettato di mettere online più di 10 milioni di opere in pochi anni, procedendo inizialmente alla digitalizzazione del patrimonio bibliotecario di cinque grandi biblioteche (quelle delle università di Harvard, Oxford, Stanford e Michigan, assieme alla New York Public Library).
In contrapposizione a Google Books, si è formata l’Open Content Alliance (OCA), un consorzio promosso dall’Internet Archive e molti competitors di Google, come Microsoft, Yahoo! Adobe e Hp. L’obiettivo dichiarato è quello di portare avanti una vasta iniziativa di digitalizzazione libraria, rendendo la base testuale acquisita aperta anche a indicizzazioni esterne, e dunque più estesamente fruibile da diversi operatori della rete. Questa è la differenza più rilevante rispetto al progetto di Google, che al contrario mantiene il totale controllo delle copie digitalizzate. I testi digitalizzati, conservati dall’Internet Archive, entrano a far parte delle collezioni delle biblioteche partecipanti e dovrebbero essere anche raccolti in biblioteche digitali autonome, quale quella già inaugurata, con fine sperimentale, dallo stesso Internet Archive, e denominata Open Library.
I progetti di digitalizzazione condotti da Google e dalle altre istituzioni si sono scontrati con due principali problemi.
In primo luogo, è necessario decidere come trattare la digitalizzazione del materiale protetto da Diritto d’Autore contenuto nelle biblioteche. Una prima opzione è quella di concentrarsi su opere in pubblico dominio o richiedere la volontà espressa del detentore dei diritti a digitalizzare e dar accesso alla propria opera. Questa procedura, per quanto ottemperi alle diverse legislazioni sul copyright, ha un costo non irrilevante. Infatti, il costo per le biblioteche di selezione e individuazione dei testi da mettere in digitale è molto elevato. Al contrario, digitalizzare un intero scaffale di opere senza preoccuparsi se il testo è protetto o meno da diritto d’autore riduce notevolmente i costi di digitalizzazione.
In secondo luogo, vi è la necessità di abbattere i costi di scansione che da sempre costituiscono un limite per le iniziative di digitalizzazione. Il processo di digitalizzazione, per quanto automatizzato, ha dei vincoli tecnici dovuti al tempo necessario a scansionare le pagine e girarle. Per questo motivo, ad esempio, la scelta del Million Book Project è stata di inviare i testi da scansionare in Cina ed India dove il costo della manodopera è minore. Secondo alcune stime, la digitalizzazione di un libro può variare da 10 a 200 dollari, in base a diversi fattori relativi all’opera e alla qualità della scansione. La scansione di un testo antico del secolo XVI o XVII può costare tra i 100 e 200 dollari, mentre un testo contemporaneo richiede meno risorse . Date queste stime, la digitalizzazione di milioni di libri può richiedere risorse ingenti, a meno che non si utilizzino tecniche e sistemi innovativi per ridurre i costi di digitalizzazione. Oltre ai costi economici, i sistemi di scansione variano anche nella velocità di scansione, un fattore importante se si considera che la sfida alla digitalizzazione è anche una sfida contro il tempo. Chi prima riesce a mettere in rete e rendere accessibile un sufficiente stock di contenuti digitali può guadagnare un vantaggio competitivo rispetto ai concorrenti.
In questa prospettiva, la scelta di Google su come trattare i testi protetti da copyright e le tecniche usate per contenere i costi di digitalizzazione sembra essere stata finora vincente.
Per quanto riguarda la digitalizzazione di opere sotto copyright, l’Open Content Alliance, come molte altre iniziative, ha adottato l’approccio tradizionale e conforme alla legge di chiedere o negoziare il permesso alla scansione da parte dei detentori di diritto d’autore. Questo approccio, che implica un aumento dei costi di transazione, si è finora rivelato lento e poco efficace, permettendo di mettere online solo testi in pubblico dominio e poche opere protette. Al contrario, Google ha adottato un approccio più spregiudicato e, secondo alcuni, non ottemperante le norme del diritto d’autore. Google ha digitalizzato intere collezioni bibliotecarie lasciando ai detentori di diritti l’opzione out-out: gli autori e gli editori che desiderassero non veder digitalizzati e indicizzati i libri dei quali detengono i diritti, possono comunicarlo, scegliendo di restare esclusi dal progetto. In seguito, i testi in pubblico dominio sono stati resi disponibili e indicizzati su Google Books, mentre quelli protetti da Copyright sono comunque indicizzati, ma è permessa solo una visualizzazione limitata dell’opera.
Riguardo ai sistema di digitalizzazione, Google sembra aver offerto le soluzioni più efficienti ed innovative, anche se è difficile avere informazioni a riguardo perché il sistema di scansione è gelosamente tenuto in segreto. Secondo Stross (2008), la superiorità di Google nella digitalizzazione è evidente sia nell’abbattimento dei costi di scansione sia nei tempi necessari a digitalizzare le collezioni. Ad esempio, nel 2002 la presidente dell’Università del Michigan, Mary Sue Coleman, aveva dichiarato che Google avrebbe digitalizzato i 7 milioni di libri della Biblioteca Universitaria in appena 6 anni, quando invece l’Università stessa stimava centinaia di anni per completare l’opera. Allo stesso tempo, secondo un bibliotecario dell’University of California – istituzione che era passata al progetto Google Books dopo un precedente accordo con la OCA – in solo giorno Google aveva scansionato 3.500 libri, la stessa quantità digitalizzata dall’OCA in un mese.
Il predominio di Google nella sfida alla digitalizzazione del patrimonio librario è stato sancito nel 2009 dall’accordo con gli autori ed editori americani, che dà a Google la possibilità di digitalizzare e mettere on-line le opere protette da diritti sia in stampa che fuori stampa, in cambio di una contropartita economica. L’accordo permetterà l’accesso delle opere anche da parte delle Biblioteche, mediante una sottoscrizione a pagamento (De Robbio, 2010; Roncaglia, 2009). Per quanto un’analisi del dibattuto accordo non sia l’oggetto di questo articolo, il dato evidenzia come negli Stati Uniti gli attori tradizionali abbiano alla fine accettato di far entrare il gigante del Web nel settore librario, in cambio delle potenzialità offerte da Google di estrarre nuovo valore economico da milioni di opere rese accessibili sulla rete.

3. Le iniziative e l’approccio europeo alla digitalizzazione
Nel quadro finora delineato è rimasta praticamente assente l’Europa. Negli stessi anni in cui si accendeva la sfida alla digitalizzazione negli Stati Uniti mossa da attori privati, in Europa si è assistito al fiorire di progetti nazionali istituzionali sorti sotto responsabilità governative o di enti di ricerca.
Questi progetti rispecchiano un approccio completamente diverso rispetto a quello americano, essendo basato sull’interesse pubblico degli Stati per la conservazione e divulgazione del patrimonio culturale. Per quanto numerose iniziative abbiano visto la luce fin dal 2000, la matrice nazionale dei progetti ha portato a una frammentazione delle risorse per la digitalizzazione su scala europea e a problemi di coordinazione. Molti progetti, inclusi quello italiano di Internet Culturale, hanno finora portato alla digitalizzazione dei cataloghi delle biblioteche e archivi e solo in minima parte alla scansione completa di opere e testi.
Per ovviare a questi limiti e per dare una risposta più organica ed europea nella sfida della digitalizzazione, dal 2005 diverse istituzioni hanno iniziato a lavorare al progetto della Biblioteca Digitale Europea. Secondo il presidente della Biblioteque National de France – intervistato nel 2005 – l’idea della Biblioteca Digitale Europea, da contrapporre ai progetti di digitalizzazione in corso su scala globale sotto la guida di attori privati, sarebbe servito per evitare il rischio di un ulteriore rafforzamento del predominio linguistico e culturale dell’inglese e degli Stati Uniti nella “immagine del mondo” fornita dalla Rete (Roncaglia, 2006).
Lo sforzo europeo si traduce in un piano di collaborazione fra le biblioteche nazionali dei paesi dell’Unione che porta nel 2008 alla realizzazione di Europeana. A differenza del progetto Google Books, la collezione digitale di Europeana non include solo libri, ma anche video, immagini, suoni, mappe, manoscritti e dipinti. Come per gli altri progetti di digitalizzazione, in Europeana le opere presenti sono finora solo quelle in pubblico dominio, mentre per decidere come e se inserire opere protette da diritto d’autore è in corso una consultazione europea. In questa prospettiva, l’approccio europeo per l’inserimento di opere protette da diritto d’autore è di sicuro più collaborativo rispetto al modello di Google, anche se di più lenta realizzazione.
Al momento del lancio, su Europeana erano a disposizione circa due milioni di opere, con un obiettivo per il 2010 di raggiungere10 milioni di opere. Questo obbiettivo sembra lontano dall’essere stato raggiunto. Alla fine del 2009, la collezione digitale copriva appena il 5% di tutti i libri digitalizzati nei 27 paesi Ue, vale a dire la metà delle opere che si sperava di raccogliere entro il 2010. Questo scarso risultato è principalmente dovuto al comportamento dei governi e delle istituzioni culturali europee troppo pigre, o gelose dei propri patrimoni, o in attesa che le questioni sulle norme sul diritto d’autore siano risolte. Il paese che ha maggiormente contribuito al progetto è stata finora la Francia, che da sola ha fornito quasi la metà — il 47% — delle opere raccolte. Al contrario, l’Italia ha contribuito solo con l’1,2% di tutte le opere, persino al di sotto della Grecia (1,6%)(EU Commission, 2009).
Bisogna rilevare che i primi anni di vita del progetto Europeana rappresentano solo la prima fase degli sforzi europei alla digitalizzazione del patrimonio culturale. Infatti, i governi di alcuni Stati, in particolare Francia e Germania si stanno muovendo per espandere i loro progetti di digitalizzazione e mettere più contenuti a disposizione del portale europeo. La Germania, ad esempio, lancerà nel 2011 la Deutsche Digitale Bibliothek, una collezione digitale di opere in lingua tedesca fornite da più di 30.000 biblioteche pubbliche. Il progetto costerà 165 milioni di Euro, arrivando a digitalizzare 5.5 milioni di opere nei primi 10 anni (Dworschak, 2010).

4. Conclusioni: opportunità e criticità dell’accordo Google-MiBAC
Il quadro delineato evidenzia come Google sia diventato in pochi anni il leader nella digitalizzazione testuale a livello globale. Forte di questa superiorità e vantaggio competitivo, Google sta entrando in punta di piedi nel settore della digitalizzazione e della distribuzione di opere del patrimonio culturale europeo. Finora, ha stipulato accordi per la digitalizzazione di opere solo in pubblico dominio, così senza entrare nella questione scottante dei diritti d’autore (Roncaglia, 2009).
Al contrario, le iniziative europee stentano ancora a produrre risultati sostanziali nella gara alla digitalizzazione del patrimonio culturale. Tranne alcuni sforzi compiuti dalla Germania oppure dalla Francia, per gli altri stati europei il costo della digitalizzazione del proprio patrimonio culturale sembra poco sostenibile, a meno di non trovare un accordo a livello europeo con relativo investimento di risorse adeguate. Non fa eccezione l’Italia che, come dimostra l’accordo Google-MiBAC, trova in un attore privato risorse e tecnologie per la digitalizzazione di un’importante parte del patrimonio culturale.
La digitalizzazione di un milione di opere custodite nelle Biblioteche Nazionali di Roma e Firenze rappresenta nel breve e medio periodo una grande opportunità per la conservazione e divulgazione del patrimonio culturale italiano. Come ricordato fin dall’introduzione, le copie digitali delle opere potranno essere fruite in modo gratuito dagli utenti sia tramite i servizi di Google sia nei siti web di proprietà del Ministero e delle Biblioteche, così da poter essere consultati anche nel portale Europeana. In termini di democratizzazione del sapere e diffusione dei contenuti culturali, dell’accesso a opere rare e di grande valore storico beneficerà soprattutto la comunità scientifica e gli studiosi. Un altro beneficio riscontrabile sul breve e medio periodo sarà l’aumento di visibilità di contenuti culturali del patrimonio italiano che sembrano ancora esigui sul portale Europeana e in generale sul Web.
In questa prospettiva, non sembrano esserci punti critici dell’accordo o condizioni che facciano pensare a una posizione di svantaggio per l’Italia nella partnership. Tuttavia la scelta del presente accordo sul lungo periodo potrebbe evidenziare alcune criticità. Queste criticità sono le stesse che spingono altri Stati europei ad investire direttamente nella digitalizzazione del proprio patrimonio culturale e non derogare a terzi attori privati e commerciali questo compito.
La principale criticità risiede nelle possibilità e potenzialità di utilizzo delle copie digitali in un contesto di evoluzione della fruizione culturale sempre più orientata all’utilizzo delle tecnologie digitali. La trasformazione e conservazione delle opere in formato digitale è infatti solo uno dei benefici, e forse il meno importante nella costruzione della biblioteca universale digitale. Se si creasse puramente un’immagine digitale dei testi, le opere rimarrebbero ancora contenuti isolati e a sé stanti. Le opportunità maggiori della digitalizzazione nascono invece dalla capacità di utilizzare i testi come informazione digitale sul Web, creando connessioni tra le opere. La possibilità di ricercare direttamente all’interno del testo, di avere collegamenti ipertestuali, di annotare, di estrarre e ricomporre contenuti rappresenta la nuova frontiera della fruizione culturale nell’era del Web 2.0 (Kelly, 2006).
Per quanto è prevedibile che le copie digitalizzate da Google e fornite alle Biblioteche Nazionali permettano la ricerca della base testuale grazie alla creazione di testo digitalizzato estratto mediante la tecnologia “Optical Character Recognition” (OCR), è molto probabile che le potenzialità maggiori di questa informazione verranno sfruttate da Google mediante i suoi servizi.
Infatti, una critica che è stata sollevata già dall’Open Content Alliance è che Google non metta a disposizione la base testuale acquisita aperta anche a indicizzazioni esterne. Questa scelta è giustificata senza dubbio dal fatto che Google, non essendo un ente non profit, ha interesse a sviluppare un sistema chiuso per la gestione dell’informazione che ha raccolto. Inoltre si potrebbe ribattere che chiunque sia libero di compiere una nuova scansione delle opere mettendo a disposizione di tutti la loro base testuale sul Web. Per questo motivo è presumibile che Google abbia imposto delle clausole restrittive di accesso alle opere date alle due Biblioteche Nazionali.
Se l’accordo tra Google-MiBAC è simile ad accordi resi pubblici e siglati con altre istituzioni bibliotecarie, è previsto che le copie digitalizzate potranno essere utilizzate solo sui siti proprietari del Ministero e delle Biblioteche e non potranno essere cedute in licenza a terze parti per un periodo superiore a 10 anni. Se questo periodo può sembrare breve, è invece relativamente lungo nel campo dell’informazione digitale, dove l’evoluzione tecnologica e quindi l’obsolescenza dei formati sono elevate.
Infine la capacità di Google di capitalizzare sui contenuti culturali digitali è anche dovuta ad effetti di rete e agli alti costi di conversione (switching cost) che caratterizzano l’economia dell’informazione (Shapiro e Varian, 1999).
Gli effetti di rete tendono a favorire gli operatori sul Web che per primi o meglio riescono a fornire servizi, mentre i costi di conversione nascono dal learning by consuming e rendono più difficile per gli utenti il passaggio a nuove piattaforme e servizi digitali sul Web. In questo senso, dato lo stock di opere online su Google Books e dato il predominio di Google come sistema di ricerca sul Web, sarà più facile ed agevole per i navigatori fruire del patrimonio librario messo a disposizione dallo stesso operatore. Per questo motivo, anche se Google rilascia le copie digitali ad uso delle biblioteche europee, è necessario comprendere se piattaforme di contenuti digitali come Europeana riusciranno ad essere un’alternativa credibile a Google Books.
In questa prospettiva, Google sta acquisendo una posizione dominante di quasi monopolio sull’accesso dei contenuti culturali finora digitalizzati, mentre la sua strategia di lungo periodo rimane ancora poco chiara. Secondo The Economist (2009), i benefici del progetto Google Books supereranno i rischi legati alla sua posizione dominante. Tuttavia, se questa posizione quasi monopolistica si consoliderà, non è detto che l’interesse privato di un attore commerciale saprà sopperire alla funzione pubblica rivestita da biblioteche e archivi negli ultimi due secoli.
Come ricordato da Darton e Litvin in due differenti contributi (Litvin, 2004; Darnton 2009) l’equità e universalità di accesso, la proprietà collettiva e la privacy nella consultazione delle opere sono sempre stati dei principi fondanti le istituzioni bibliotecarie nel tradizionale sistema di fruizione dei contenuti culturali. Questi principi potrebbero in futuro non essere fondanti per un attore privato che è riuscito a monopolizzare l’accesso ai contenuti culturali digitalizzati.
La costante evoluzione tecnologica e le future possibilità offerte dalla Rete per la fruizione culturale rendono difficile fare previsioni, ma per questo è ancora più necessario che si attuino politiche per mantenere la garanzia di questi principi. Basandosi solo su un milione di testi in pubblico dominio, l’accordo Google-MiBAC non sembra porre nessuna criticità su questi temi. Tuttavia, quando e se si vorrà digitalizzare opere protette da diritti d’autore nelle collezioni delle biblioteche italiane, sarà auspicabile una maggiore riflessione politica sui costi e benefici della digitalizzazione da parte di attori privati. Questa riflessione è tanto più necessaria, quanto più la sfida alla digitalizzazione richiede competenze tecnologiche elevate ed interessa contenuti con caratteristiche di beni pubblici.
Pur mancando le risorse pubbliche per digitalizzare il patrimonio librario italiano, un primo passo dovrebbe essere quello di proporre una visione politica di lungo periodo sulla questione della digitalizzazione del patrimonio culturale, offrendo delle linee guida alle istituzioni culturali pubbliche per eventuali partnership con attori privati e commerciali. In Francia, questo passo è già stato compiuto con il rapporto Tessier (Vitiello, 2010). E’ auspicabile che anche l’Italia adotti una simile strategia.

Note
(1) L’exabyte e? una unita? di misura della memoria. Un exabyte equivale a 1024 petabyte, un petabyte equivale 1024 terabyte, un terabyte equivale a 1024 gigabyte.

Bibliografia
Ciotti F. e Roncaglia G. (2002), Il mondo digitale: introduzione ai nuovi media, Roma-Bari, Laterza
Darnton, R. (2009), Google and the Future of Books, The New York review of Books, February, 9-11
De Robbio, A. 2010, Odissea Google Books :il Google Book Search Project e la nuovapropostadiaccordotransattivo, Bibliotecheoggi, vol. XXVIII, 2010, n. 3, p.44-59
Dworschak M. (2010), A GermanLibraryfor the 21st Century, Spiegel Online International, 02/19/2010, http://www.spiegel.de/international/germany/0,1518,676591,00.html
EU Commission (2009), Europeana Next Steps. European Commission’s Communication, COM(2009) 440
Hart M. (1992), History and Philosophyof Project Gutenberg, http://www.gutenberg.org/about/history
Kelly K. (2006), Scanthis Book!, New York Times, 14/05/2006, http://www.nytimes.com/2006/05/14/magazine/14publishing.html
Litwin, R. (2004), On Google’s Monetization of Libraries, Library Juice, 7, 26, http://libr.org/Juice/issues/vol7/LJ_7.26.html
Roncaglia G. (2006), I progetti internazionali di digitalizzazione libraria: un panorama in evoluzione, Digitalia, Volume 1-2006
Roncaglia G. (2009), Google Book Search e le politiche di digitalizzazione libraria, Digitalia, Volume 2-2009
Stross R. (2008), Planet Google. How One Company is Transforming our Lives, New York, Free Press
The Economist (2009),  Digital publishing: Google’s big book case. The internet giant’s plan to create a vast digital library should be given a green light, The Economist, Sept. 3rd 2009, http://www.economist.com/opinion/displayStory.cfm?story_id=14363287
Vitiello G. (2010), Google e le biblioteche francesi: le ragioni di un rapporto, Digitalia, Volume 1-2010