«Bibliotime», anno XIX, numero 3 (novembre 2016)

Precedente Home Successiva



Maria Cassella

Le biblioteche accademiche nel flusso dei dati: attività e strategie per la 'data curation'



Abstract

Academic libraries are increasingly involved in data curation. The data curation adds value to research data  by developing a strategic vision of the research data workflow throughout its lifecycle. The article deals with the three main actions of the data curation: planning, description, and preservation. Access and reuse are a result of an effective data curation. The author also explores the role that academic libraries have in research data management. In the United States and in UK academic libraries are actively taking part in the data curation. In Italy research data curation is occasional. Academic libraries still miss a political strategy and relevant funding to strongly support research data management.



Because good research needs good data
(Digital Curation Centre)

1. Premessa

Nel mondo accademico, nel settore pubblico e in quello privato, si parla diffusamente di dati, dati aperti, dati linked, Linked Open Data e, da ultimo ma non per ultimo, di Big Data.

Nella ricerca, in ambito scientifico, tecnico, medico, ma anche nel campo delle scienze umane e sociali, vengono prodotte giornalmente grandi masse di dati in formato digitale che necessitano di essere analizzate, rese accessibili, gestite e conservate in maniera adeguata per trasformarsi in informazioni strutturate e permettere, tramite l'apertura in rete, il loro riutilizzo futuro [1].

Al fine di realizzare un'efficace gestione dei dataset, la loro conservazione e quindi il riuso, è necessario che si mettano in atto una serie di attività e strategie che vengono raggruppate sotto il termine cappello di: digital curation o data curation [2].

La data curation è, in realtà, un'attività svolta da tutto il settore cultural heritage e per il mondo accademico, dalle biblioteche accademiche e di ricerca. Nelle università e nei centri di ricerca nuove figure professionali, come il repository manager e i data librarian, sono state chiamate in causa per creare nuovi servizi a supporto delle comunità di ricerca e delle loro esigenze di gestione dei dataset.

Che tipo di scelte devono essere fatte per programmare una corretta gestione e conservazione dei dati? Quali sono le fasi e le attività fondamentali previste dalla data curation? In che modo le biblioteche possono inserirsi nella gestione dei dati della ricerca? A queste domande cercheremo di dare una risposta in questo contributo.

2. Scelte strategiche per la data curation

Il Digital Curation Centre (DCC), un centro di ricerca sulla digital curation fondato nel 2004 in Gran Bretagna da un consorzio di università [3], definisce la digital curation (o data curation) come l'attività che "mantiene e aggiunge valore ad un corpo certificato di informazioni digitali per l'uso corrente e futuro; nello specifico si tratta della gestione attiva e della valutazione dei dati durante l'intero ciclo di vita dei prodotti della ricerca [4]."

Sostenuto dal JISC, il DCC svolge ricerche, studi e attività relative alla data curation. Nel 2010 il DCC ha pubblicato un modello concettuale sul ciclo di vita dei dati (Digital Curation Lifecycle Model), che troviamo qui sotto rappresentato [5].

Si tratta di un modello ideale, circolare costruito intorno a quattro azioni fondamentali:

Eccezion fatta per la pianificazione, le azioni della data curation non devono necessariamente susseguirsi nell'ordine sopra descritto. Ogni progetto di ricerca segue, infatti, un percorso autonomo nella produzione e gestione dei dati.

Il Digital Curation Lifecycle Model sostiene i ricercatori nella riflessione sulla data curation. In particolare, come scrivono Donnelly, Jones e Pattenden-Fail, "it is designed to help researchers in defining roles and responsibilities pertaining to their data, identifying risks which arise at the points of transition, and ensuring an appropriate and safe chain of custody for digital data" [6]. Analizziamo, quindi, le fasi e le principali attività della data curation.

Pianificazione: la stesura dei Data Management Plans

Le scelte strategiche per la data curation iniziano ancora prima della creazione stessa dei dataset durante le attività di ricerca. Fondamentale per la gestione, conservazione e riproducibilità dei dati è avere una visione prospettica che prenda in considerazione in un ciclo unico tutte le fasi di progettazione, gestione e successiva conservazione dei dati.

Nel contesto digitale, quest'idea di gestione a ciclo unico proposta dalla data curation appare estremamente significativa, dal momento che ogni risorsa viene creata e mantenuta in un continuum informativo nel quale l'oggetto digitale e il medium finiscono per convivere e sono indissolubilmente legati.

La richiesta avanzata da numerosi enti finanziatori di compilare un Data Management Plan risponde proprio all'esigenza di educare i ricercatori ad avere una visione strategica nel trattamento dei dati. In tal senso la compilazione di un DMP è un momento rilevante nella progettazione di un'attività di ricerca. Del resto, come scrivono Willoughby e Bird: "curation should be a concern to the researcher and not be seen as something that happens later for example as part of the publication process [7]."

Cosa sono esattamente i Data Management Plans (DMPs)? Per descriverli in modo semplice possiamo dire che si tratta di documenti formali redatti dai responsabili di un progetto di ricerca all'interno dei quali vengono specificate alcune informazioni utili alla gestione dei dataset prodotti e più precisamente: che tipo di dati verranno prodotti, in quali formati, chi ne è il responsabile, con quale modalità e dove saranno archiviati e, infine, se saranno resi disponibili ad accesso aperto.

La redazione di un RDM non è di per sé problematica, ma può essere problematico (ed anche costoso) gestire i dati in modo corretto e trasparente, oltre che conservarli nel medio e lungo periodo. È bene considerare che dal momento che i dataset sono di diversa tipologia ed estensione [8] non è sempre possibile adottare delle strategie omogenee per la loro gestione e conservazione.

Negli anni sono stati creati diversi strumenti online in grado di facilitare la compilazione di un Data Management Plan. Tra i più noti ed utilizzati vale la pena di citare:

Si tratta di strumenti estremamente flessibili concepiti per essere utilizzati direttamente dai ricercatori e per soddisfare le differenti richieste avanzate dagli enti finanziatori.

Di recente, il Digital Curation Centre ha anche pubblicato una Checklist per la costruzione di un DMP Checklist for a Data Management Plan). La Checklist [10] prende in considerazione tutti i passaggi e gli elementi necessari nella compilazione di un DMP.

Rappresentazione descrittiva (creazione metadati)

Il secondo passaggio fondamentale nella data curation è immediatamente successivo alla fase di creazione dei dataset. Si tratta della loro descrizione a mezzo di schemi di metadati concepiti ad hoc.

I metadati sono "dati sui dati": ne favoriscono il riconoscimento, l'accesso e la conservazione. Danno informazioni sul contesto utili all'interpretazione dei dati: "one of the most important elements that metadata provides for the experiments is the context, without which digitally captured data in particular become meaningless [11]."

A livello europeo, DataCite è l'organizzazione no-profit che mantiene il DOI, l'identificativo persistente utilizzato per citare i dataset, e ha pubblicato uno schema di metadati per la descrizione dei dataset. Il DataCite Metadata Schema è centrato sul Dublin Core, la versione 3.0 è stata rilasciata nel 2013.

Esistono, tuttavia, anche schemi di metadati molto più specialistici concepiti a partire dalle caratteristiche disciplinari dei tipi di dataset [12]. Il loro utilizzo richiede una buona dose di esperienza nella descrizione con metadati combinata con competenze di dominio.

In questa attività di creazione di metadati entrano in gioco, come vedremo in seguito parlando del ruolo delle biblioteche nella data curation, le competenze di una nuova figura professionale che sta emergendo nell'ambito della comunicazione scientifica: quella del data librarian [13].

In taluni contesti è anche possibile che siano gli stessi ricercatori a descrivere i dati delle proprie ricerche, ma si tratta di un approccio poco convincente, che evidenzia alcuni limiti in relazione alla qualità ed alla consistenza dei metadati prodotti: "researchers are not experts in the complex task of metadata creation and find it even more difficult to create metadata that will be useful for others [14]."

Di fatto, oltre a non possedere le competenze necessarie, i ricercatori lamentano di avere poco tempo a disposizione per attività che non siano strettamente connesse con la ricerca scientifica e la didattica universitaria.

La descrizione dei dataset attraverso schemi standard è una buona prassi che facilita la citazione dei set di dati e, quindi, il riconoscimento scientifico da parte delle comunità di ricerca [15], oltre ad essere una garanzia per la loro riproducibilità.

Conservazione

La terza attività fondamentale nella data curation è la conservazione. La conservazione è l'aspetto strategico che guarda al futuro dei dati prodotti dalla ricerca ma ne rende durevole l'accesso e possibile il riutilizzo. Non c'è riutilizzo, infatti, senza conservazione.

In ambiente digitale la conservazione consta di diverse attività: "it holds the promise of ubiquitous access, deals with the fragility of data ensuring its long-term accessibility, preservation, authentic and integrity, manages risk, the obsolescence of hardware and software, addresses the need for well-constructed file systems and metadata" [16].

A garanzia di una conservazione a lungo termine è buona prassi che i dataset nella loro versione definitiva vengano archiviati in repository certificati (trusted repositories).

Dove archiviare i dati della ricerca? Data repository o repository istituzionali? La tensione concettuale tra data repository di tipo disciplinare e repository istituzionali di fatto non è mai stata risolta. Si tratta probabilmente di un falso problema. I percorsi per la scelta di un repository da parte delle comunità di ricerca sono, infatti, estremamente diversificati.

Swauger e Vision [17] realizzano uno studio comparativo per analizzare le motivazioni che spingono i ricercatori ad archiviare i propri dataset in uno dei due seguenti repository: TreeBASE o Dryad. Gli autori individuano otto motivi che spingono i ricercatori a selezionare i repository dove archiviare i propri dati:

Da non trascurare anche il ruolo degli editori e degli enti finanziatori. In numerosi casi sono questi ultimi o le riviste che accettano gli articoli di ricerca per la pubblicazione che orientano le scelte dei ricercatori e suggeriscono il repository dove depositare i dati prodotti [19].

Per i ricercatori la data curation resta, comunque, un percorso ad ostacoli. Tra le sfide da affrontare ci sono:

Un aspetto da prendere in considerazione quando si archiviano i dataset è quello dei diritti di proprietà intellettuale, della possibilità di adottare licenze per la condivisione dei dati in rete, dell'eventualità (o necessità) di sottoporre i dati ad un embargo.

Per condividere i dati e favorirne il riuso è fortemente consigliabile che chi possiede i diritti di proprietà intellettuale sugli stessi espliciti chiaramente quali forme di riutilizzo vengono consentite adottando lo strumento legale delle licenze. La pubblicazione in rete di dati non associati ad alcuna licenza determina, infatti, una situazione di incertezza che è la peggior nemica del riutilizzo.

Le licenze, invece, creano un "un diritto personale – o un insieme di diritti – per l'utente – o per un insieme di utenti – che accede a un dato – o a un insieme di dati – controllato da chi ne detiene la titolarità [21]."

Quanto alle tipologie di licenze che è possibile adottare ci limitiamo a ricordare che a partire dalla versione 4.0 le licenze Creative Commons possono essere utilizzate anche per i dataset. Altre tipologie di licenze utilizzabili per i dati sono le tre licenze Open Data Commons dell'Open Knowledge Foundation:

Il più noto utilizzatore di una licenza ODC è il progetto cartografico collaborativo OpenStreetMap [23]. In Italia come contratto di licenza per i dataset è anche possibile utilizzare l'Italian Open Data License 2.0 [24], sviluppata dal Formez PA. La IODL è compatibile con la licenza CC-BY-SA (attribuzione, condividi allo stesso modo) e la licenza ODC - Open Database License versione 1.0 o successiva.

L'uso delle licenze per condividere i dati costituisce una buona pratica: riduce i costi di transazione, la perdita di tempo e le incertezze, sia per i detentori dei diritti di proprietà intellettuale, sia per gli eventuali riutilizzatori. Gli enti finanziatori della ricerca suggeriscono fortemente l'apertura dei dati in rete a mezzo della pubblicazione di open data policy.

Il programma di ricerca europeo Horizon 2020 ha anche introdotto un progetto pilota sui dati della ricerca. L'Open Research Data Pilot prevede l'elaborazione di un piano di gestione dei dati e il deposito in rete dei dataset e dei relativi metadati. I dati devono essere depositati in un repository certificato [25] e vanno garantite le misure necessarie per il riutilizzo dei dati, compreso il data-mining. Il deposito dei dati non è obbligatorio ma viene fortemente consigliato per i progetti finanziati all'interno di sette specifici topic [26].

L'apertura dei dati in rete consente di realizzare una maggiore trasparenza del processo di ricerca. È un tema etico con forti connotazioni di tipo economico legate alla possibilità di riutilizzare i dati per nuovi percorsi di ricerca.

Qualora non sia possibile adottare immediatamente la strada dell'accesso aperto per i dataset prodotti può risultare utile prevedere un periodo di embargo per procrastinare l'apertura dei dati in rete. Le open data policy degli enti finanziatori della ricerca prevedono per i dati periodi di embargo variabili che vanno generalmente dai sei mesi ai due anni.

3. Le biblioteche accademiche nel flusso dei dati della ricerca

Le biblioteche accademiche e di ricerca stanno ricoprendo un ruolo di tutto rilievo nella gestione e conservazione dei dati. Di fatto, negli Stati Uniti la gestione dei dati della ricerca è stata affidata prevalentemente alle biblioteche accademiche. In Gran Bretagna e nei paesi europei, invece, il panorama appare molto più variegato:

The data management space in US higher education is predominantly owned by the libraries (throughout the book there is an assumption that libraries are the 'natural' home for data management at universities), whereas here in the UK it is much more dependent on individual institutional cultures and circumstances whether it is the librarians, the academics, or the administrators who take the lead [27].

Sovente gli uffici che si occupano di ricerca o i servizi IT si occupano anche delle attività di data curation: "in UK it is not uncommon for a research funding office, or an IT service, to coordinate the work in this area [research data management n.d.a]" [28].

In Europa i percorsi che hanno condotto le biblioteche (e i bibliotecari) verso le attività di "supporto" alla gestione dei dati sono stati diversi e non sempre di tipo istituzionale. In svariati casi l'approccio è stato occasionale; le comunità di ricerca si sono rivolte alle biblioteche per una consulenza e un sostegno nell'archiviazione e conservazione dei dati. Ovvero alla fine del ciclo di data curation.

I servizi offerti dalle biblioteche accademiche e di ricerca devono, invece, riguardare l'intero ciclo di produzione, gestione e conservazione dei dati. Nella fase iniziale le biblioteche possono offrire ai ricercatori una consulenza per la redazione dei Data Management Plans (DMP) che, come già scritto in precedenza, sono richiesti obbligatoriamente in fase di presentazione del progetto da numerosi enti finanziatori in diversi ambiti disciplinari (Wellcome Trust, Research Councils UK, National Endowment for the Humanities, National Institutes of Health, Royal Society of Chemistry ecc.) e dal programma di finanziamento europeo Horizon 2020.

Nelle fasi successive alla presentazione e realizzazione del progetto di ricerca le biblioteche accademiche possono intervenire nelle attività di:

L'advocacy a favore dell'apertura dei dati in rete resta un aspetto ancora molto problematico. In Europa il progetto RECODE (RECommendations for Open Access to Research Data in Europe) ha pubblicato una serie di raccomandazioni a favore della disseminazione e conservazione dei dati della ricerca.

Prendendo in considerazione i punti di vista dei differenti stakeholders rispetto al tema dei dati aperti (ricercatori, finanziatori, curatori, editori ecc. ecc.), il report finale del progetto, pubblicato nel febbraio 2015, evidenzia le differenze disciplinari nella gestione dei dataset e fornisce indicazioni per la stesura delle policy e delle azioni da intraprendere per aprire in rete i dati [29].

Negli Stati Uniti e in Gran Bretagna le università hanno cominciato ad adottare policy per sostenere la gestione, conservazione e condivisione dei dati (open data policy). Sul sito dell'ormai più volte citato Digital Curation Centre viene mantenuto aggiornato un elenco di università britanniche che hanno adottato open data policy [30].

In Italia non risultano al momento università che hanno fatto una scelta di questo tipo. Cresce l'attenzione degli addetti ai lavori (e dei bibliotecari) verso il tema della gestione dei dati della ricerca [31], ma le azioni di data curation restano occasionali, affidate alla buona volontà dei singoli o alla reputazione guadagnata dai sistemi bibliotecari di Ateneo presso le comunità di ricerca. Mancano, purtroppo, strategie istituzionali e finanziamenti adeguati che possano sostenere la data curation.

In conclusione, così come i ricercatori, anche le biblioteche accademiche o i sistemi bibliotecari di Ateneo devono affrontare alcune sfide fondamentali se vogliono giocare un ruolo attivo nella data curation :

in relation to funding there is a lack of understanding of the costs involved in the curation and preservation […] With regard to maintaining the quality of data the focus of institutions has been primarily on technical quality. However, in order to build trust in the open access infrastructure, institutions also need to encourage and support the development of strategies and tools to ensure scientific quality [32].

our analysis of institutional challenges has highlighted the need to address the skills gap in libraries and data centres, the better integration of data management and curation skills in post-graduate and educational curricula and the advancement of awareness-raising activities [33].

Infine, va affrontato il tema della formazione degli utenti: è necessario educare i ricercatori ad avere una visione strategica nella gestione e condivisione dei dati anche se i percorsi per arrivare a questo obiettivo potranno essere diversi ed impegnativi.

Maria Cassella, Biblioteca "Norberto Bobbio" - Università degli Studi di Torino, e-mail: maria.cassella@unito.it


Note

[1] Il movimento FAIR (Findable, Accessible, Interoperable, Riusable) ha definito nel 2014 in un documento di linee guida i principi fondamentali per l'accessibilità e la riproducibilità dei dati: <http://www.datafairport.org/>. I principi FAIR sono stati di recente adottati nelle nuove linee guida della Commissione europea in materia di gestione dei dati nei progetti finanziati da Horizon 2020.

[2] Sulle questioni terminologiche e le sottili differenze semantiche tra i termini: digital curation, digital preservation e data curation rimando ad un mio precedente contributo: Dal digital curator al data librarian: le professioni del digitale si specializzano, "Biblioteche oggi", 34 (2016), 3, p. 13-21. Sulla digital curation in italiano si legga su questa rivista anche l'articolo di Laura Testoni, Digital curation and content curation: due risposte alla complessità dell'infosfera digitale che ci circonda, due sfide per i bibliotecari, "Bibliotime", 16 (2013), 1, <http://www.aib.it/aib/sezioni/emr/bibtime/num-xvi-1/testoni.htm>. Sulla digital curation resta fondamentale la consultazione della bibliografia di Charles W. Bailey, The Digital Curation Bibliography: Preservation and Stewardship of Scholarly Works, CreateSpace Independent Publishing Platform, 2012. La versione online è disponibile alla URL: <http://www.digital-scholarship.org/dcbw/dcb.htm>.

[3] In particolare, le università di Bath, Edimburgo e Glasgow.

[4] "Maintain and add value to a trusted body of digital information for current and future use; specifically, (it is) the active management and appraisal of data over the life-cycle of scholarly and scientific materials" (Digital Curation Centre, What is digital curation?, <http://www.dcc.ac.uk/digital-curation/what-digital-curation>. Ultimo accesso: 10.08.2016. La traduzione in italiano è mia).

[5] Un secondo modello di ciclo di vita dei dati è quello elaborato dalla Data Documentation Initiative (DDI). La versione 3.2 del modello è scaricabile alla URL: <http://www.ddialliance.org/Specification/DDI-Lifecycle/3.2/>. La DDI Alliance lavora alla creazione di standard e di vocabolari controllati utili alla descrizione dei dataset.

[6] Martin Donnelly - Sarah Jones - John W. Pattenden-Fail, DMP Online: the Digital Curation Centre's web-based tool for creating, maintaining, and exporting data management plans, "International Journal of Digital Curation", 5 (2010), 1, <http://www.ijdc.net/index.php/ijdc/article/view/155/218>.

[7] Cerys Willoughby - Colin Bird, User-defined metadata: using cues and changing perspectives, "International Journal of Digital Curation", 10 (2015), 1 <http://www.ijdc.net/index.php/ijdc/article/view/10.1.18>.

[8] Riporto qui alcuni esempi di dati della ricerca: dati di laboratorio, dati fattuali, dati sperimentali, dati derivati o compilati, dati derivati da simulazione ecc. ecc.

[9] Sul DMPOnline sviluppato dal Digital Curation Centre si leggano i contributi di Magdalena Getler [et al.], DMPOnline Version 4.0: user-led innovation, "International Journal of Digital Curation", 9 (2014), 1, <http://www.ijdc.net/index.php/ijdc/article/view/9.1.193/353>; e quello già citato di Martin Donnelly, Sarah Jones e John W. Pattenden-Fail, 2010.

[10] La Checklist del DCC è liberamente scaricabile alla URL: <http://www.dcc.ac.uk/sites/default/files/documents/resource/DMP/DMP_Checklist_2013.pdf>.

[11] Willoughby - Bird, 2015.

[12] Sul portale del Digital Curation Centre è pubblicata una lista di schemi di metadati alla URL: <http://www.dcc.ac.uk/resources/metadata-standards>.

[13] Figura professionale che si colloca nel contesto della scholarly communication. Segnalo come estremamente interessante lo studio realizzato dalla Confederation of Open Access Repositories (COAR) sulle nuove competenze del bibliotecario che lavora a supporto della comunicazione scientifica e dei servizi di ricerca. Tra i profili professionali esaminati da COAR quello per la gestione dei Research Data. I profili pubblicati sono disponibili alla URL: <https://www.coar-repositories.org/activities/support-and-training/task-force-competencies/>.

[14] Willoughby - Bird, 2015.

[15] Segnalo l'esistenza della Joint Declaration of Data Citation Principles che elenca otto motivi per cui è fondamentale citare i dataset. Il documento di principi si carica alla URL: <https://www.force11.org/group/joint-declaration-data-citation-principles-final>.

[16] Mary Anne Kennan - Lina Markauskite, Research data management practices: a snapshot in time, "International Journal of Digital Curation", 10 (2015), 2, <http://www.ijdc.net/index.php/ijdc/article/view/10.2.69/409>.

[17] Shea Swauger - Todd J. Vision, What factors influence where researchers deposit their data? A survey of researchers submissions to data repositories, "International Journal of digital curation", 10 (2015), 1, p. 68-81, <http://www.ijdc.net/index.php/ijdc/article/view/10.1.68>.

[18] Shea Swauger - Todd J. Vision, 2015.

[19] Si consideri, ad esempio, la open data policy della Royal Society che consiglia, in mancanza di repository più specifici, di archiviare i dati prodotti in Dryad o Figshare.

[20] Cfr. Mary Anne Kennan - Lina Markauskite, Research data management practices: a snapshot in time, "International Journal of Digital Curation", 10 (2015), 2 <http://www.ijdc.net/index.php/ijdc/article/view/10.2.69/409>.

[21] Antonella De Robbio, OL4OD: licenze aperte per dati aperti, "JLIS.it" , 2 (2011), 2 <http://leo.cilea.it/index.php/jlis/article/view/4695>.

[22] Di recente l'OKFN ha tradotto in italiano le proprie licenze che si scaricano dal sito italiano, consultabile anche per maggiori dettagli sul tema degli open data alla URL: <http://it.okfn.org/>.

[23] La peculiarità dei dati geografici e cartografici ha fatto sì che in Europa venissero concepite licenze specifiche per queste tipologie di dati. Ad esempio: la Public Geodata License <http://en.giswiki.org/wiki/Public_Geodata_License>.

[24] La licenza IODL 2.0 si trova scaricabile alla URL: <http://www.formez.it/iodl/>.

[25] Per quanto se ne discuta ripetutamente l'archiviazione dei dataset in un repository certificato non è per nulla un argomento scontato. Le comunità di ricerca, infatti, tendono ancora a crearsi archivi digitali ad hoc, spesso scarsamente interoperabili e non certificati.

[26] Si tratta più precisamente dei topic: Future and emerging technologies, Research infrastrucutures, Leadership in enabling and Industrial Techonologies-Information and Communication Technologies, Societal Challenge: Secure, Clean and Efficient Energy – part Smart cities and communities, Societal Challenge: Climate Action, Environment, Resource Efficiency and Raw materials – except raw materials, Societal Challenge: Europe in changing world – inclusive, innovative and reflective Societies, Science with and for Society.

[27] D. Fearon [et al.], Research data management services, (SPEC Kit N. 334), 2013.

[28] Martin Donnelly, Review, Research Data Management: practical strategies for information professionals, "International Journal of Digital Curation", 9 (2014), 2, <http://www.ijdc.net/index.php/ijdc/article/view/9.2.1/363>.

[29] Policy RECommendations for Open Access to Research Data in Europe, 2015 <http://recodeproject.eu/wp-content/uploads/2015/02/RECODE-D5.1-POLICY-RECOMMENDATIONS-_FINAL.pdf>.

[30] <http://www.dcc.ac.uk/resources/policy-and-legal/institutional-data-policies>.

[31] Segnalo il recente convegno organizzato a Roma a maggio 2016 dal CINECA in collaborazione con il CNR di Pisa sulla scienza aperta e i dati aperti. I video e le presentazioni sono disponibili alla URL: <http://www.oa.unito.it/new/openaire-an-open-science-tool-for-europe/>.

[32] Policy RECommendations for Open Access to Research Data in Europe, 2015 <http://recodeproject.eu/wp-content/uploads/2015/02/RECODE-D5.1-POLICY-RECOMMENDATIONS-_FINAL.pdf>

[33] Anche per ciò che riguarda il tema dell'aggiornamento professionale l'Italia segna il passo. Negli Stati Uniti e in Gran Bretagna, invece, l'offerta formativa universitaria relativa alla digital curation è in costante crescita. Cfr. Helen R. Tibbo, Digital curation education and training: from digitization to graduate curricula to MOOCs, "The International Journal of Digital Curation", 10 (2015), 1, <http://www.ijdc.net/index.php/ijdc/article/view/10.1.144/387>.

[34] Policy RECommendations for Open Access to Research Data in Europe, 2015, <http://recodeproject.eu/wp-content/uploads/2015/02/RECODE-D5.1-POLICY-RECOMMENDATIONS-_FINAL.pdf>.




«Bibliotime», anno XIX, numero 3 (novembre 2016)

Precedente Home Successiva


URL: http://static.aib.it/aib/sezioni/emr/bibtime/num-xix-3/cassella.htm