N.2 2016 - L'ambiente digitale e le biblioteche

Navigazione dei contenuti del fascicolo

Biblioteche e comunicazione scientifica nell’era del web: un dibattito aperto

Valeria Lo Castro

Centro di Ateneo per le biblioteche “Roberto Pettorino” Università di Napoli Federico II valeria.locastro@unina.it

Abstract

In questo lavoro si indaga il contributo che la teoria biblioteconomica può portare nell’elaborazione di un nuovo ruolo e un nuovo riposizionamento delle biblioteche digitali nel web, ambiente che ha completamente stravolto il modo in cui la conoscenza viene costruita, gestita e distribuita. Gli attori di questi processi sono gli intellettuali, i mediatori di informazioni e i cittadini comuni che si trovano a confrontarsi con processi della comunicazione scientifica molto diversi rispetto ai meccanismi consueti. Inoltre si fa strada un movimento sempre più forte che, partito dai primi pionieri della Rete, ha poi investito in maniera progressiva la comunità scientifica e i cittadini chiedendo l’accesso aperto alla letteratura scientifica, ai dataset della ricerca e a tutto quello che viene prodotto e finanziato con i soldi pubblici. Le istituzioni culturali come le università e le biblioteche partecipano di questi processi e possono dare il loro contributo nella costruzione della visione della conoscenza e della scienza come beni comuni.

English abstract

In this work the author examines, through an inspection of recent studies, the contribution that librarianship may provide regarding the elaboration of a new role and a new positioning of digital libraries on the Web, an environment that has totally upset the way knowledge is created, managed and allocated. The stakeholders of this process are the intellectuals, the mediators of information and ordinary people engaging with a very different process of scholarly communication from the usual. Moreover an increasingly strong movement, originated from the first pioneers of the Web, rises from the ranks, gradually steering the scientific community and people, asking for open access to scientific litterature, to dataset of research and to all that is produced and financed with public fundings. Cultural institutions such as universities and libraries take part of these processes and can give their contribution to the construction of the concept of knowledge and of science as common goods.

I valori da portare con sé nell’ecosistema digitale

«Il millennio che sta per chiudersi ha visto nascere ed espandersi le lingue moderne dell’Occidente e le let­terature che di queste lingue hanno esplorato le pos­sibilità espressive e cognitive e immaginative. È stato anche il millennio del libro, in quanto ha visto l’oggetto-libro prendere la forma che ci è familiare. Forse il segno che il millennio sta per chiudersi è la frequenza con cui ci si interroga sulla sorte della letteratura e del libro nell’era tecnologica cosiddetta postindustria­le […]». Così scriveva nel 1984 Italo Calvino nell’in­troduzione alle Lezioni americane, che a causa della sua morte improvvisa non ebbe il tempo di tenere ad Harvard: Calvino aveva individuato nella ‘leggerezza’, ‘rapidità’, ‘esattezza’, ‘visibilità’, ‘molteplicità’ (l’ultima, relativa alla ‘consistency’ non fu completata) i ‘valori da portare con sé’.

Anche nel campo della biblioteconomia, al volgere del millennio, ci si è interrogati sui valori da conservare nel XXI secolo. Nella riflessione biblioteconomica sono emerse diverse voci che hanno contribuito al dibattito sulla ridefinizione del posizionamento e della mission della biblioteca, soprattutto in relazione ai mutati sce­nari tecnologici e sociali, poiché la biblioteca, oggi, si trova ad operare in un ecosistema del web, nel quale non ha più la funzione esclusiva di depositaria del sa­pere e dei contenuti della conoscenza.

In questo mutato contesto assistiamo da un lato a profonde modifiche che stanno investendo la pro­duzione, gestione, circolazione, fruizione della conoscenza, e dall’altro a nuove forme di apprendimento (basti pensare alla massa critica delle ‘conversazioni’, di cui diremo in dettaglio più avanti) che avvengono in molteplici luoghi, non solo istituzionali. Queste nuove modalità sono calate in un contesto sociale nel quale le persone hanno bisogno di un apprendimento con­tinuo, ed è per questo che si parla di lifelong learning society (‘società dell’apprendimento permanente’), per esercitare i fondamentali diritti di cittadini e per non restare esclusi dai flussi di conoscenza.

La presenza di diversi attori, che in qualche modo contendono alla biblioteca le sue tradizionali preroga­tive e funzioni, ha una diretta conseguenza sia sull’a­spetto teorico che su quello pratico: la bibliotecono­mia si trova, infatti, a misurarsi con altre discipline, che si occupano a diverso titolo e per differenti aspetti dei contenuti della conoscenza sul web. Accade così che, accanto alle voci di natura prettamente biblioteconomica, emerga anche il punto di vista di altri studiosi non esattamente ascrivibili all’ambiente biblioteconomico, ma ad ambienti contigui, che portano il loro con­tributo teorico alle speculazioni di cui si parlava prima. A cavallo del nuovo millennio, David Weinberger, con­siderato uno dei filosofi più autorevoli di Internet, è stato autore insieme a Rick Levine, Cristopher Locke, Doc Searls, del Cluetrain Manifesto: the end of busi­ness as usual, un insieme di 95 tesi organizzato e presentato come manifesto riformatore, che ridefi­nisce la natura e i processi tipici dei mercati nell’e­ra del web in termini di comunicazioni tra persone. Il Cluetrain Manifesto, però, può essere applicato in vari contesti e si rivolge anche a soggetti non commerciali, che operano all’interno della rete globale di Internet, con l’obiettivo di verificare da un lato l’impatto di In­ternet su tali organizzazioni e sulle persone, e dall’altro di suggerire agli attori in campo i cambiamenti richiesti dal mutato contesto.

Le tesi possono essere ascritte a sei macro-aree te­matiche:

  • la possibilità data dal nuovo mezzo digitale di entrare in un mercato virtuale, all’interno del quale tutti pos­sono accedere e comunicare con altri. La prima tesi enuncia infatti «markets are conversations» (tesi 1-6);
  • la potenzialità del collegamento risiede nella pos­sibilità di mettere in contatto le persone all’interno delle organizzazioni stesse e nella rete globale ma anche nella capacità di connettere informazioni al di fuori della gerarchia formale esistente in una struttura organizzativa. Questa rete di relazioni, attraverso le conversazioni in atto, contribuisce a creare consu­matori più consapevoli e informati (tesi 7-13);
  • l’assoluta necessità che queste organizzazioni parte­cipino alle conversazioni, pena il rischio di diventare invisibili (tesi 14-25);
  • l’invito a ripensare nuovi modi e nuovi approcci attra­verso cui poter entrare nel nuovo mercato (tesi 26-40);
  • lo sviluppo di una struttura organizzativa non più ba­sata su un organigramma formale, ma su una strut­tura ipertestuale (tesi 41-71);
  • un cambiamento all’interno del nuovo mercato e conseguente riposizionamento delle organizzazioni (tesi 72-95).

Nello stesso anno Michael Gorman, una delle voci più autorevoli del panorama bibliotecario internazionale, con Our enduring values: librarianship in 21st century, pro­pone un tentativo, dal punto di vista biblioteconomico, di operare una riflessione intorno ai valori duraturi nei quali le biblioteche e la comunità dei bibliotecari avreb­bero dovuto riconoscersi soprattutto in relazione al rapporto con il mondo della rete. Il lavoro di Gorman, fortemente ispirato al pensiero di Shiyali Ramamrita Ranganathan, è diviso in capitoli, ciascuno dei quali è dedicato ai valori che l’autore identifica come fon­damentali: ‘capacità di gestione’, identificata con la capacità dei bibliotecari di giocare un ruolo chiave nel trasferimento delle competenze ai futuri professionisti dell’informazione; ‘servizio’, inteso come senso etico, che dovrebbe permeare tutte le politiche e le pratiche delle biblioteche; ‘libertà intellettuale’, ovvero la necessità di garantire la libera espressione del pensie­ro; ‘razionalismo’, partendo dalla constatazione che la biblioteconomia è una disciplina altamente razionale, incoraggiarne l’organizzazione logica e la classificazio­ne; ‘istruzione e apprendimento’, qui intesa non sol­tanto come la capacità di leggere, scrivere o navigare in rete, ma anche come la capacità di sviluppare un pensiero critico; ‘equità nell’accesso alla conoscenza e alle informazioni’: la biblioteca ha il dovere di provare a colmare il divario derivante dal cosiddetto digital di­vide, attraverso i suoi servizi, al fine di consentire pari possibilità di accesso alla conoscenza; ‘democrazia’, principio fortemente contiguo al precedente e in qual­che modo conseguenza diretta: soltanto garantendo pari possibilità di accesso alla conoscenza, i cittadini potranno essere realmente parte di un sistema demo­cratico e svolgere un ruolo attivo; ‘privacy’, ovvero la garanzia dell’accesso a qualsiasi materiale desiderato da un utente, senza l’interferenza di soggetti terzi.

Nel 2011 un contributo alla riflessione su questi temi è stato portato da David Lankes con The atlas of new librarianship, a sottolineare già nel titolo (dove non a caso si fa riferimento a una ‘mappatura’ della libra­rianship, termine che pone al centro dell’attenzione il bibliotecario e le sue competenze più che la biblioteca e la sua gestione) l’intenzione di rifondare su nuove basi la teoria biblioteconomica. La tesi principale del libro verte sull’idea che la mission dei bibliotecari con­sista nel migliorare la società «facilitando la creazione della conoscenza nelle loro comunità di riferimento»: è dunque necessario un profondo ripensamento sul posizionamento delle biblioteche e dei bibliotecari ri­spetto alle dinamiche di produzione e comunicazione del sapere. Secondo Lankes, sono le comunità ad es­sere la vera collezione che i bibliotecari devono sviluppare, incrementare e favorire attraverso il ruolo di facilitatori del processo di creazione della conoscenza. Come si vede, Lankes tenta di attuare un vero e pro­prio cambio di paradigma, sovvertendo i tradizionali punti di riferimento della disciplina, facendo propria la ‘teoria della conversazione’ (riferibile all’area delle teorie dell’apprendimento) attraverso cui si realizza la conoscenza (intesa come processo che può avvenire sia nella testa del singolo individuo, che «mette in rela­zione quanto legge, vede, acquisisce con quanto già conosce», sia tra diversi individui o comunità che si confrontano tra loro). Alcune idee sono particolarmen­te interessanti e utili alle caratteristiche che devono avere le biblioteche digitali:

  • il concetto di embedded librarian, vale a dire un bi­bliotecario che persegue le sue finalità non necessa­riamente agganciato a una biblioteca, ma all’interno dei contesti dove si svolgono le ‘conversazioni’, di­ventando così parte dei flussi informativi (col Seman­tic Web si tenta la stessa operazione sul versante degli oggetti digitali e delle informazioni, e cioè trova­re dei modi affinché le informazioni e la conoscenza siano parte dei flussi di informazioni e siano realmen­te visibili nei luoghi da cui parte la ricerca di informa­zioni da parte degli utenti, e cioè nei motori di ricerca generalisti);
  • il dovere delle biblioteche di porsi come ‘apparato circolatorio’, e in qualche modo ‘disperdersi’ nel web.

Questi ultimi due punti sono importanti perché met­tono in evidenza quanto il rapporto delle biblioteche e dei bibliotecari con i flussi di lavoro debbano essere bidirezionali. L’ambiente del Semantic Web favorisce questa nuova modalità bidirezionale di stare nell’eco­sistema digitale.

Sedici anni dopo il Cluetrain Manifesto, nel gennaio 2015, Doc Searls e David Weinberger pubblicano 121 nuove tesi per il futuro della Rete, ribattezzate New Clues. Le New Clues raccontano uno scenario pro­fondamente mutato, rispetto al precedente manifesto. Weinberger e Searls richiamano l’attenzione sulla ne­cessità di tornare ai valori fondativi della Rete, a quelli che il suo fondatore, Tim Berners-Lee, ha enunciato in diverse occasioni («la rete nasce come ambiente li­bero e per connettere persone»). Anche qui troviamo alcune macroaree concettuali o ‘valori’ da presidiare. Più specificamente gli autori mettono in guardia da alcune dinamiche e rischi che possono compromet­tere e mettere in discussione le migliori e originarie ca­ratteristiche di Internet e individuano alcuni punti da cui partire per garantire la neutralità della Rete, la sua struttura aperta e la privacy:

  • l’aumento del potere che le aziende (i grandi colossi del web) esercitano sulla nostra vita di cittadini digita­li, la quantità di dati che acquisiscono su di noi e che spesso noi stessi inseriamo nei loro server (tesi 1-7);
  • la messa in discussione della neutralità della rete, uno dei valori cardine che ha permesso alla Rete stessa di crescere e prosperare; si ribadisce che la rete è libera, aperta, non ha alcuno scopo (viene messo in pericolo cioè il concetto di rete come bene comune) (tesi 8-15);
  • la rete è fatta di utenti connessi da una struttura completamente aperta che può essere utilizzata, modificata e incrementata ogni giorno (tesi 16-24);
  • stare in guardia affinché nuove enclosures non pren­dano il sopravvento; Internet come spazio libero da difendere contro il pericolo della recinzione e dalle logiche di mercato (tesi 25-83);
  • la necessità di garantire la privacy (tesi 84-103);
  • la forza della rete e della ‘conversazione’ (tesi 104-120).

In sostanza in questo nuovo manifesto gli autori met­tono in guardia da una serie di rischi che corre la Rete, nella quale logiche di mercato rischiano di soffocare le caratteristiche cui essa è avocata, quelle caratteristi­che individuabili nell’ambito dell’apertura, della neutra­lità, della privacy ecc. Il rischio è quello di confondere le strategie di mercato con il libero scambio di idee. David Weinberger ha ripreso alcune di queste questio­ni ne La stanza intelligente: la conoscenza come pro­prietà della rete e ha indicato una modalità per incre­mentare e migliorare l’infrastruttura della conoscenza creando altra informazione (secondo alcuni di quei valori precedentemente enunciati, ‘apertura’, ‘condi­visione’, ‘collegamento’, ‘neutralità’), attraverso lo svi­luppo di una rete ricca di metadati, sulla cui codifica deve esserci un accordo comune, che consentireb­be di condividere informazioni molto più complesse e provenienti da molteplici siti, così da poter esprimere ulteriore conoscenza (più di quanto ne sia stata im­messa). Gli strumenti del Semantic Web (come le on­tologie, in grado di esprimere più grandi e complesse rappresentazioni logiche di domini nel mondo) e i più immediati Linked Data (in grado di collegare elementi secondo standard definiti) sono indicati come la stra­da da seguire per fornire ‘ganci’ alla conoscenza.

Lorcan Dempsey in The network reshapes the library: Lorcan Dempsey on libraries, services, and networks ha parlato di una Rete nella quale le biblioteche restano indietro rispetto a quelle che sono le aspettative con­temporanee di accesso alla conoscenza, e soffrono la concorrenza degli ‘hub gravitazionali’, luoghi nei quali accanto alla messa a disposizione di una mole di ri­sorse sempre più ampia, gli strumenti per il recupero delle stesse si fa sempre più preciso e pertinente di pari passo alla garanzia di un accesso sempre più sempli­ce (solitamente un unico punto di accesso). Dempsey indica nell’approccio inside out, da affiancare al tradi­zionale outside in, la via che le biblioteche possono (e devono) provare a intraprendere: vale a dire non solo acquisire risorse dall’esterno, ma anche rendere dispo­nibili le proprie risorse all’esterno, dove si trovano gli utenti.

Nel panorama italiano Anna Galluzzi in un articolo ap­parso lo scorso anno su questa stessa rivista ha il­lustrato quattro caratteristiche (o ‘valori’) da ritenere essenziali in una concezione innovativa della biblioteca contemporanea: ‘semplicità’, ‘visibilità’, ‘partecipazio­ne’ e ‘inclusività’, declinando ciascun valore alla biblio­teca digitale nella sua dimensione globale:

Come si evince da questo breve excursus, le biblio­teche hanno necessità di ripensare profondamente il loro ruolo e il loro posizionamento in un contesto come quello del web, dove cambiano le esigenze degli utenti, cambia la modalità in cui questi ultimi si approcciano alle ricerche, cambia perfino il concetto stesso di conoscenza.

La Rete è nello stesso tempo un mezzo e un luogo di comunicazione. «Internet mette le persone in contatto con un’agorà pubblica, per dare voce alle loro preoccu­pazioni e condividere le speranze» dice Manuel Castells in Galassia Internet, ma è anche un’infrastruttura su cui poggia la forma organizzativa caratterizzante la società contemporanea: i network. I media digitali consentono potenzialmente una totale simmetria informativa. «Infatti nel sistema di comunicazione “netcast”, caratterizzato da una struttura “molti-molti” tutti sono oltre che consu­matori, potenziali produttori di informazioni». La cosa nuova e potenzialmente interessante è che in essa le organizzazioni formali, permanenti e strutturate (come le biblioteche e le istituzioni universitarie) vengono af­fiancate e a volte sostituite da coalizioni libere e da mo­vimenti grassroots: è il caso delle comunità LODLAM (Linked Open Data in Libraries Archives and Museums) e LinkedUp (Linking Web data for Education) o della comunità di Wikipedia. L’obiettivo cui tendere è proprio quello di una maggiore integrazione tra questi universi diversi, portando ciascuno il suo bagaglio e la sua forza (individuabili, ad esempio, nel caso di istituzioni struttura­te, nella qualità e nella selezione e in generale in un lavoro solido e accurato, benché gerarchico di lunga durata e tradizione, che possa compenetrarsi con la freschezza e le caratteristiche dei movimenti grassroots).

È importante accanto a questa visione ottimistica della rete non dimenticare l’altra faccia della medaglia, vale a dire le contraddizioni che si determinano nella nuo­va agorà elettronica, prime fra tutti il cosiddetto digital divide che esclude chi non è connesso dalle poten­zialità partecipative che i nuovi media offrono. Questo discorso va inteso in senso più ampio, laddove il di­vario digitale non riguarda solo la possibilità di essere connessi o meno, ma anche quella di avere accesso a determinate risorse o meno (oltre che alle possibilità di comprensione di tali risorse).

Insomma Internet è «il terreno conteso dove si com­batte la nuova e fondamentale battaglia per la libertà nell’età dell’informazione» e, per riprendere un’im­magine cara a Manuel Castells, della nuova agorà pubblica; potremmo dire che il controllo di massa dell’agorà pubblica è una delle questioni cruciali solle­vate dallo sviluppo di Internet.

Capire in che modo la rete e la scienza e le istituzio­ni culturali che la veicolano (università, biblioteche) si compenetrano e capire in che modo si possa sfruttare al meglio le potenzialità dell’una in favore dell’altra è l’obiettivo di questo contributo. La scienza (o se vo­gliamo i risultati della ricerca prodotti nelle università) è un bene comune, un common, che esce dalle aule universitarie per raggiungere, attraverso la divulgazio­ne dei suoi risultati, non solo i tradizionali fruitori (gli studenti e i ricercatori stessi), ma anche altri destina­tari (è in questo senso che si parla di ‘terza missio­ne’ dell’università): imprese, cittadini ecc. Insomma la scienza ha una potente ricaduta sul contesto sociale: diventa cruciale capire come favorire la circolazione, l’uso e il riuso dei risultati della ricerca e in che modo le biblioteche possono avvantaggiarsi dei nuovi strumen­ti digitali per riuscire a ‘portare con sé’ e nella dimen­sione della Rete quei valori di cui abbiamo discusso.

Come cambia la comunicazione scientifica al tempo della Rete

Internet non costituisce solo un mezzo e un luogo di comunicazione ma modifica anche la struttura delle relazioni tra i soggetti, siano essi strutture organiz­zate istituzionali (università, centri di ricerca ecc.) e non (le piattaforme costruite dai cosiddetti movimenti grassroots o ‘dal basso’), o singoli individui, scienziati e amatori che, come vedremo, nel nuovo ambiente digitale (e in particolare con l’avvento del cosiddetto web 2.0 o web sociale) sono sia soggetti attivi che fruitori o utenti.

È importante capire in che modo cambia la comunica­zione sul web, se il nuovo mezzo digitale è in grado di favorire l’idea di una ‘scienza aperta’, di una scienza intesa come bene comune e quali possibilità possono essere esplorate in tal senso, ovvero se la rete con­sente il libero esercizio dell’‘uso pubblico della ragio­ne’ e entro quali limiti.

Francesca Di Donato in La scienza e la rete: l’uso pub­blico della ragione nell’età del web affronta la questio­ne da un punto di vista prettamente filosofico, portan­do a sostegno della necessità di una scienza libera la tesi di Kant nella «Risposta alla domanda: che cos’è l’illuminismo?» del 1784, scritto alla vigilia della Rivo­luzione Francese: «L’uso pubblico della ragione, l’uso cioè che uno fa del logos “in quanto studioso”, davanti all’intero pubblico dei “lettori” [A 485], dev’essere libe­ro, perché solo così può attecchire l’abitudine al pen­sare da sé. Esercitare l’uso pubblico della ragione, se è difficile per il singolo individuo, è possibile per il pub­blico. Il rischiaramento può avvenire collettivamente, come fenomeno storico-culturale, una volta che al sin­golo sia lasciata la libertà di ragionare pubblicamente su scienza, religione e politica; anzi, aggiunge Kant, che ciò accada è “persino inevitabile”. Affinché i singo­li possano pensare autonomamente, dev’essere pos­sibile discutere pubblicamente di scienza. Solo così può germogliare la vocazione al libero pensiero, il qua­le “allora agisce a sua volta gradualmente sul modo di sentire del popolo (attraverso la qual cosa questo diventerà più e più capace della “libertà di agire”), e alla fine addirittura sui princìpi del ‘governo’ [A 493- 4]”. La risposta di Kant è che la libertà della scienza è condizione della libertà politica». Di conseguenza, potremmo affermare che la libertà della ricerca è un prerequisito di una società democratica. La seconda questione riguarda il rapporto tra la scienza e il modo in cui è prodotta e veicolata. Si tratta di un tema le­gato alla stessa nascita del pensiero filosofico occi­dentale, sorto in un’epoca di rivoluzione mediatica che ha visto il passaggio dall’oralità alla scrittura. Anche qui Di Donato fa leva sul pensiero di un altro filosofo, Platone, che nel Fedro, un dialogo che ha al centro la comunicazione scientifica, afferma che i contesti in cui si determina il modo in cui si usano le tecnolo­gie di comunicazione condizionano i gradi di libertà della scienza. Platone dunque afferma che il mezzo non è neutro, presenta limiti e possibilità. Ma l’effetto che produce dipende da come lo si usa, all’interno di questi limiti. Platone distingue tra hypòmnesis, il ba­gaglio di nozioni che si possiedono, e anàmnesis, la loro interconnessione sistematica, secondo un senso unitario e coerente. La componente nozionistica può diventare conoscenza scientifica solo se elaborata cri­ticamente e in modo interattivo. Mettendo al centro il logos filosofico, il filosofo critica la politica culturale dei sofisti, da una parte, e della cultura tradizionale (orale) dall’altra. Il logos filosofico può dunque espli­carsi attraverso diversi mezzi, l’importante è che tali mezzi siano usati con scienza, poiché il modo in cui si fa scienza e la si comunica è una questione politica. Un tema, questo, che sarà ripreso più volte nella storia del pensiero occidentale. Spostandoci a un periodo più recente, all’inizio del Novecento, Marshall McLuhan ha studiato gli effetti prodotti dalla comunicazione sia sul­la società nel suo complesso, sia sui comportamenti dei singoli. La sua riflessione ruota intorno all’ipotesi secondo cui il mezzo tecnologico che determina i ca­ratteri strutturali della comunicazione produce effetti pervasivi sull’immaginario collettivo, indipendentemente dai contenuti dell’informazione di volta in volta veicolata. In Galassia Gütenberg, McLuhan sottolinea per la prima volta l’importanza dei mass media nella storia umana; in particolare, discute dell’influenza della stampa a caratteri mobili sulla storia della cultura occidentale e illustra come con l’avvento della stampa a caratteri mobili (1455) si compia definitivamente il passaggio dalla cultura orale alla cultura alfabetica.

Nel lavoro Gli strumenti del comunicare, McLuhan afferma che è importante studiare i media non tanto attraverso i contenuti che essi veicolano, ma in base ai criteri strutturali con cui organizzano la comunicazione. La celebre espressione «il medium è il messaggio», di cui McLuhan è autore, si riferisce proprio alla neces­sità di studiare ogni medium in base ai criteri strutturali secondo i quali organizza la comunicazione; è proprio la particolare struttura comunicativa di ogni medium che lo rende non neutrale, perché essa suscita ne­gli utenti-fruitori determinati comportamenti e modi di pensare e porta alla formazione di una certa forma mentis. La non neutralità del mezzo di comunicazione è prerequisito ai processi successivi, vale a dire i modi in cui i contenuti, le informazioni vengono in qualche modo presentate e il modo in cui vengono elaborate. Spostandoci all’ambito della sociologia della scienza Peter Burke, riprendendo i termini di crudo e cotto introdotti da Claude Lévi-Strauss per rappresentare la contrapposizione tra natura e cultura, «ha assimilato il termine informazione a quanto è immediato, pratico e specifico, e quindi “crudo”, mentre la “conoscenza” denoterà ciò che è stato “cotto”, elaborato, sistematizzato dal pensiero».

Paul Allan David descrive la libera ricerca scientifica come un processo sociale anziché individuale, fondato sul principio della divulgazione integrale delle scoperte e dei metodi, sui sistemi di peer review e su processi di verifica orientati alla costruzione di una ‘conoscenza attendibile’. Gli elementi che hanno caratterizzato il sistema tradi­zionale di comunicazione in campo scientifico, un si­stema che è rimasto per lo più inalterato fino all’ultimo quarto del secolo scorso, si definirono in Europa, e in particolare in Inghilterra, tra la fine del XVII secolo e i primi decenni del successivo. Se l’idea dell’univer­salità della scienza è senz’altro il risultato di un lungo processo di transizione, è in Inghilterra, grazie soprat­tutto alla diffusione che la stampa ebbe in quel preciso contesto storico, culturale e politico, che tale proces­so raggiunse una forma definita e pressoché definitiva: a Londra, presso la Royal Society, nacque la prima rivista scientifica e si delinearono le pratiche di accre­ditamento scientifico tutt’oggi in vigore, in particolare il processo di peer reviewing. Da più parti viene sot­tolineato il nesso strettissimo esistente tra la diffusione della stampa e l’evoluzione del discorso scientifico, sia nella costruzione di una ‘verità’ del sapere, sia attra­verso un discorso sui mezzi di comunicazione.

Le pubblicazioni, e in particolare i periodici che sono cresciuti in maniera esponenziale in concomitanza con la specializzazione disciplinare, sono da sempre legate al problema della valutazione, che diventa sempre più un momento fondamentale sia per le università, i cen­tri di ricerca e i singoli ricercatori, sia per gli investitori pubblici e privati oltre che per le ricadute che questi processi e le linee di sviluppo e di tendenza hanno nella società.

Nel 1962 Thomas Kuhn pubblicò la Struttura delle ri­voluzioni scientifiche, che rivoluzionò il tradizionale concetto di scienza. Kuhn sostenne che la scienza non è semplicemente un susseguirsi di scoperte che si aggiungono alle precedenti, facendoci avvicinare sempre più alla verità. Le domande sollevate dalla scienza, i fatti che considera attinenti e le spiegazioni che fornisce si inseriscono tutti all’interno di un para­digma scientifico complessivo.

Il sistema di comunicazione scientifico sostanzialmente legato alla carta stampata è stato sconvolto dall’avvento della Rete: il nuovo medium ha reso evidenti alcuni limiti del sistema tradizionale e nello stesso tempo ha aperto la strada e favorito nuove modalità di diffusione della co­noscenza. In un lavoro recente, Whitworth e Friedman hanno definito il sistema tradizionale di pubblicazione in campo scientifico come un sistema feudale perché esclusivo, datato, restio ai cambiamenti e all’innovazio­ne, e i cui contenuti sono poco letti o discussi e spesso inaccessibili e molto specialistici.

È evidente che l’innovazione tecnologica rappresen­tata da Internet costituisce un mutamento strutturale di importanza analoga alla diffusione della stampa nel modo in cui i progressi scientifici sono comunicati e possono diventare oggetti di collaborazione. Internet si è trasformato (anche se Internet nasce già con una precisa filosofia fondata sulla collaborazione) in un si­stema utile a studiosi di tutte le discipline. Ci troviamo oggi in una fase di riorganizzazione, nella quale gli enti ai quali è tradizionalmente delegata la gestione dell’in­formazione scientifica (per esempio le biblioteche o le case editrici) stanno sviluppando nuovi modelli e mis­sioni organizzative.

Luciano Gallino in Tecnologia e democrazia spiega in che modo gli studiosi fanno ricerca nella Rete:

La ricerca scientifica è stata completamente trasfor­mata dalla disponibilità della rete; in questo caso si in­tende ovviamente la grande tela intessuta da Internet e dal web attorno al mondo. Il ricercatore scientifico che pone mano a un nuovo progetto non compie qua­si più alcuno degli atti che sino a poco tempo addie­tro costituivano la norma di questo genere di attività: recarsi in biblioteca, consultare libri, scorrere riviste, aprire decine di classificatori repleti di schede compi­late a mano. Nella maggior parte dei casi il ricercatore non entra nemmeno negli archivi del proprio compu­ter. Va direttamente in rete, nella quale sa di trovare in abbondanza i documenti, gli articoli, i dati, i risultati di altri esperimenti, le notizie circa le attività di altri laboratori che lo interessano. Dopo qualche tempo passato a scandagliare accuratamente la rete, il ricercatore si metterà in contatto con altri colleghi sparsi nel mondo, al fine di ottenere da essi suggerimenti e commenti ‒ nei limiti, ovviamente, consentiti dalla competizione internazionale tra i ricercatori. Allorché avrà prodotto qualche primo risultato, lo trasmetterà attraverso la rete a qualche collega di cui si fida; e quando considererà sufficientemente maturi i risultati della ricerca li diffonderà in qualche minuto, attraverso la rete, a tutte le riviste specializzate, i media, i labora­tori alleati e concorrenti.

Il dibattito scientifico pubblico si configura come una rete in progressiva espansione che, attraverso conti­nue citazioni reciproche (che si esprimono in recen­sioni, note, riassunti, bibliografie e indici, discussioni, lettere aperte ecc.), costruisce un discorso comune. La scienza è un common, un bene che può essere goduto da una moltitudine di persone. A differenza però dei beni comuni tout-court (come le strade, o i prati comuni degli inglesi prima delle recinzioni) non è sog­getta al meccanismo di depauperamento descritto da Garret Harding in The Tragedy of Commons: se sfrutto al massimo un pascolo, perché è gratis, lo esaurisco, a danno di tutti gli altri. Ecco la tragedia dei commons: i beni comuni, in quanto vengono usati in comune, tendo­no a venir sfruttati fino all’esaurimento. Tendono, cioè, se rimangono comuni, a cessare di essere beni.

Ma la scienza è un common che sfugge alla sua tra­gedia, cioè al fatto che, essendo sfruttata da tutti, sia soggetta a esaurirsi. Una teoria scientifica (così come la conoscenza in generale) è un common non com­petitivo, perché chiunque può apprenderla senza che nessun altro sia deprivato nel suo patrimonio di cono­scenze. Le idee, a differenza dei beni comuni compe­titivi, crescono se vengono condivise, e il loro valore aumenta, perché la condivisione dà loro la possibilità di svilupparsi e di migliorarsi.

Negli ultimi anni sono stati pubblicati moltissimi studi sull’idea di conoscenza come ‘bene comune’, e in Ita­lia Stefano Rodotà è tornato a più riprese su questi temi (anche nel dibattito biblioteconomico si è parlato di conoscenza come bene comune, di scienza come bene comune).

Nel suo già citato volume, David Weinberger ha dedi­cato un intero capitolo al modo in cui la rete trasfor­ma le modalità di fare scienza e sta producendo una ridefinizione della conoscenza scientifica. Egli sostiene che la conoscenza scientifica stia assumendo le pro­prietà del nuovo medium attribuendole alcune caratte­ristiche: «vasta, meno gerarchica, più ininterrottamen­te pubblica, meno filtrata a livello centrale, più aperta alle differenze, collegata da link». Egli pone l’attenzione su una questione assai dibattuta e delicata, ov­vero sulla differenza tra scienziati professionisti e ama­tori. Internet non ha eliminato il bisogno di scienziati qualificati, né ha cancellato completamente la linea di demarcazione tra professionisti e amatori. Tuttavia ha reso indistinte le linee: nell’agorà elettronica esisto­no più collaboratori, più rapporti confusi, relazioni più numerose e disordinate. Laddove un tempo c’era un divario tra lo scienziato professionista e l’amatore di­lettante - un divario definito e mantenuto dal processo di accreditamento - la rete prova a colmare e in certi casi ad annullare tale distanza. I dilettanti, in questa visione, possono gestire in crowdsourcing l’elabora­zione di grandi volumi di dati, donare il tempo libero dei loro computer, eseguire compiti semplici che richiedo­no scarsa abilità o formazione scientifica. Questo tipo di integrazione tra diversi soggetti, che a vario titolo e secondo le diverse competenze possono lavorare a vari livelli nella Rete, non elimina di certo il tradizionale ci­clo attraverso cui passa la comunicazione scientifica: la maggior parte della ricerca scientifica deve ancora superare varchi stretti prima di essere pubblicata.

Mendeley è, per contro, un modello di network al­ternativo nel quale prevale un altro genere di autore­volezza: il comportamento e i consigli delle persone all’interno della rete sociale di un utente contano più dei suggerimenti del programma su ciò che potrebbe interessarlo. Altro caso è rappresentato da Academia. edu, un sito web per ricercatori dedicato alla condi­visione delle pubblicazioni scientifiche. È stato lancia­to nel settembre 2008 e conta oltre ventisei milioni di utenti registrati. La piattaforma può essere utilizzata per condividere articoli, monitorare il proprio impact factor, seguire studiosi su tematiche specifiche. Academia.edu è stata fondata da Richard Price e partecipa al movi­mento Open Science, con l’obiettivo di diffondere la necessità di una distribuzione immediata della ricerca e di un sistema di peer review.

È spesso così con Internet: quando rimuove i muri, abbraccia la natura disordinata che li circonda […] l’oggi continuo della scienza significa che a volte sarà più difficile sapere con esattezza chi ha trovato cosa, perché la scoperta potrebbe essere il risultato di una collaborazione pubblica di cui magari i collaboratori non sono nemmeno al corrente. Ai singoli scienziati potrebbe non piacere la perdita di questo riconosci­mento di autorevolezza, ma per la scienza sarebbe senza dubbio un vantaggio.

E ancora:

La scienza non sarà in grado di riaffermare la sua vec­chia autorità perché ha perso il medium che le permet­teva di prosperare: un canale unidirezionale dove c’era chi parlava e chi ascoltava. Il nuovo medium unifica a tal punto le informazioni, le comunicazioni e la socialità che è quasi impossibile tenere separati i fili di que­sta tripla elica. Anche il sapere scientifico vive in una ragnatela intricata di esseri umani dove si prendono decisioni non solo sulla base delle informazioni e della conoscenza, ma anche all’interno di un contesto fatto di lotte sociali, interessi personali, speranze condivise, emozioni motivanti e stimoli a malapena percepiti. È sempre stato così col vecchio medium, conferendo più autorità a istituzioni accreditate, promuoveva l’illu­sione di un assenso quasi uniforme.

La natura dell’editoria ha segnato anche la natura della scienza, non soltanto per il fatto che il modello editoriale tradizionale consentiva una chiara attribuzione delle idee a un singolo scienziato, ma anche per la ‘finitezza’ del mezzo a stampa. Nella Rete questo meccanismo viene spezzato: il prodotto finale della scienza in rete non è un sapere racchiuso in pubblicazioni autosufficienti. In real­tà, il prodotto finale della scienza non è né finale né un prodotto. Weinberger sostiene che sia

la rete stessa: la connessione senza soluzione di continuità tra scienziati, dati, metodologie, ipotesi, teorie, fatti, speculazioni, strumenti, letture, ambi­zioni, controversie, scuole di pensiero, libri di testo, docenti, collaborazioni e divergenze che un tempo si faceva ogni sforzo per stampare in un numero relati­vamente piccolo di articoli, su di un numero relativa­mente piccolo di riviste.

Steven Pinker ha esplicitato ulteriormente il concetto focalizzando l’attenzione sulla straordinaria disponibili­tà di informazioni e dati, sulla potenza di calcolo delle macchine, sull’efficacia degli strumenti collaborativi che permettono agli scienziati di lavorare insieme al di là di ogni frontiera.

Fino ad ora abbiamo esplorato le potenzialità della Rete, un ecosistema in grado di superare le barriere tecnologi­che, fisiche ecc., tuttavia il lato ‘oscuro’ è dato dal fatto che in un sistema così concepito sono totalmente saltati i meccanismi di ‘filtro’.

Il 10 giugno 2015 Umberto Eco, in occasione del con­ferimento della laurea honoris causa in Comunicazione e cultura dei media presso l’Università di Torino, ha avviato una discussione che ha generato nei giorni successivi un certo clamore in Rete, soprattutto sui social network. Le questioni sollevate da Eco in estrema sintesi sono rela­tive a due aspetti. Il primo riguarda la qualità delle infor­mazioni che circolano su Internet - a seconda del punto di vista potremmo anche dire la quantità di bufale pre­senti sul web - e l’incapacità degli ‘intermediari dell’in­formazione’ (giornalisti, insegnanti ecc.) di individuare/insegnare seri meccanismi di filtraggio delle informazioni. Il secondo aspetto, connesso al primo, riguarda il fatto che sullo spazio del web tutti abbiamo lo stesso diritto di parola, tanto «un imbecille quanto un premio Nobel». Anche questo aspetto è connesso al tema del ricono­scimento e della qualità della fonte. Generando questa polemica, Eco ha riportato l’attenzione su una tematica di vecchia data eppure ancora attuale, contestualizzan­dola rispetto alle caratteristiche del web e degli ‘oggetti’ che lo popolano: le informazioni che vi circolano e le co­munità che in varia misura lo frequentano. In entrambi i casi, il concetto di qualità diventa pregnante. Declinando questo discorso al campo della comunicazione scienti­fica, risulta evidente che i meccanismi messi in campo dall’editoria agivano da filtro affinché fossero pubblicati solo i lavori che superavano certi standard.

La scienza in rete è fondamentalmente diversa: è enorme e in perenne disaccordo, è pragmatica, coordina le diffe­renze attraverso i namespace ed è sempre incerta. Cioè, la scienza in rete assomiglia molto più all’idea di scienza degli scienziati rispetto a quella che ne hanno i media.

Gli hacker del sapere: i beni comuni della conoscenza e il mondo open

Con un’immagine efficace si parla degli hacker, che sono in ciò molto simili ai filosofi antichi, tanto che po­tremmo anche usare questa visione per creare un’ac­cademia della Rete generalizzata, nella quale tutti i materiali di studio siano liberi di essere usati, criticati e sviluppati da tutti. Migliorando i materiali esistenti in nuove direzioni, il network produrrebbe continuamen­te migliori risorse per lo studio degli argomenti che di volta in volta si presentano. I membri del network sarebbero guidati dalle loro passioni per i vari temi e dal riconoscimento dei pari per i loro contributi.

Negli ultimi vent’anni si è assistito a un progresso si­gnificativo delle campagne in favore del libero accesso all’informazione, per il quale sono stati determinanti lo sviluppo e la diffusione dei nuovi media digitali.

Il World Wide Web è nato grazie all’intuizione di Tim Berners-Lee, padre del web e teorico delle successi­ve versioni varianti del Semantic Web e ideatore dei principi Linked data, proprio per consentire ai ricerca­tori che lavoravano al CERN di Ginevra (dove anch’egli lavorava) di condividere i documenti, i set di dati e di comunicare tra loro.

Un elemento chiave della crescita di Internet è stato l’accesso libero e aperto alla documentazione di base, e in special modo alle specifiche dei protocolli. Fran­cesca Di Donato specifica che questi primi informatici sono mossi dai medesimi principi che animano il di­battito sulla Repubblica delle Lettere:

Se infatti il concetto di “humanitas” per gli umanisti è strettamente legato alla comunicazione, intesa come un atto di generosità verso gli altri che non si realiz­za in mera erudizione, comunicazione e comunicare sono termini che vengono usati per indicare il dove­re di trasmettere il sapere ai posteri; dunque un atto non di mera liberalità, ma di giustizia.

Internet, concepito in prima istanza come strumento per la condivisione dell’informazione e delle risorse di calcolo, ha gradualmente rivoluzionato l’attività della ricerca stessa, arricchendola di nuovi strumenti da un lato, e facendo passare, dall’altro, l’idea della libera cir­colazione del sapere scientifico e della collaborazione tra scienziati come momenti fondamentali nel processo di lavoro. I suoi principi sono stati formalizzati e raffor­zati grazie alla sinergia col movimento per il software libero. Richard Stallman, fondatore del movimento, ha coniato la definizione di free software, espressione con la quale si intende la libertà di eseguire, copiare, distribuire, studiare e modificare un programma. Que­ste azioni sono possibili solo se, assieme al codice eseguibile di un software, viene fornito anche il codice sorgente, cioè se è possibile accedere al ‘testo’ di un programma scritto da chi l’ha creato. Stallman ha inol­tre introdotto il concetto di copyleft (il termine, che let­teralmente significa ‘permesso di copia’, si basa su un gioco di parole che sfrutta la contrapposizione right/left, destra e sinistra) che consente di sottoporre il software a licenze libere, tramite le quali l’autore cede al pubblico parte dei suoi diritti economici sull’opera indicando ai suoi fruitori le condizioni alle quali può essere usata.

Torvalds, creatore del primo sistema operativo libero Linux, e l’ampia comunità di programmatori che han­no collaborato al suo sviluppo hanno mostrato la fatti­bilità del modello pensato da Stallman.

La comunità dei programmatori e l’architettura stessa dell’informazione nascono per mettere in contatto i ricer­catori che lavoravano con diversi strumenti e software, giovandosi di un’architettura aperta, modulare e flessibile.

Si osservi che nel contesto in cui il software libero è nato e si è sviluppato, l’etica rappresenta il collante e stabilisce lo standard di un comportamento accetta­to da chi sente di far parte di questo gruppo in cui la capacità, la conoscenza, l’interesse per il calcolato­re sono gli elementi primari della comunicazione e la ragione dello stare insieme, e sono alla base di una organizzazione non gerarchica ma reticolare, basata sullo scambio e sull’interazione [...]. Si diffonde cioè quella che viene definita etica hacker, un atteggia­mento di cui il mondo accademico può essere consi­derato il predecessore più antico. Hacker è un termi­ne tecnico, la cui definizione è stata spesso travisata e confusa col sabotatore di sistemi informatici (che si definisce, propriamente, cracker).

Dall’ambito ristretto del software, il concetto di copyleft ha in seguito interessato il campo dei contenuti (testi, brani musicali, video ecc.) grazie a Lawrence Lessig, professore di Diritto pubblico a Stanford e alla Harvard Law School e fondatore nel 2001 del progetto Crea­tive Commons, per investire, in tempi più recenti, il campo della ricerca scientifica, della pubblica ammini­strazione ecc. attraverso i vari movimenti open.

Il movimento Open Access, nato nel 2004, ha con­centrato l’attenzione sulla letteratura scientifica, con­siderando la Rete non soltanto come un canale per disseminare l’informazione a basso costo, ma anche come un luogo e un mezzo in grado di trasformare il modo di fare scienza e di trasmettere il sapere. Come primo passo in questa direzione, l’Europa ha intrapre­so iniziative importanti al fine di stimolare e promuove­re il modello Open Access. Nel 2008, la Commissione Europea ha lanciato il progetto pilota del VII Program­ma Quadro, che sanciva che il 20% della ricerca finan­ziata dalla Commissione dovesse essere pubblicata ad accesso aperto dopo un embargo di 6-12 mesi, seguita dallo European Research Council (ERC), che ha adottato una policy che imponeva la pubblicazione ad accesso aperto dopo un limite massimo di 6 mesi. Il mondo dell’accademia ha tardato a fare propri gli strumenti di comunicazione e, soprattutto, di pub­blicazione che Internet e il web hanno reso dispo­nibili e accessibili: tra i ricercatori ha prevalso un at­teggiamento contraddittorio tale per cui, da un lato, il ricercatore usa attivamente la rete per fare ricerca, sfruttandone mezzi e strumenti quando è alla ricerca di fonti per scrivere i suoi testi; dall’altro continua a pubblicare con i mezzi tradizionali e ad accettare gli strumenti di valutazione nati e sviluppatisi nel vecchio sistema di comunicazione della scienza.

Il movimento per l’accesso aperto alla letteratura scientifica nasce nella comunità accademica avviando una campagna in favore della condivisione dell’infor­mazione e della conoscenza, intese come beni co­muni, e come soluzione al problema delle biblioteche noto come ‘crisi del prezzo dei periodici’, vale a dire l’aumento vertiginoso del costo degli abbonamenti alle riviste scientifiche. Su tale base, l’Open Access viene a trovarsi al centro di un ampio dibattito tra ricercato­ri, bibliotecari, amministratori di università e centri di ricerca, agenzie di finanziamento, editori e studenti.

Il collegamento tra la filosofia del movimento per il software libero di cui abbiamo discusso poco sopra e le premes­se che hanno portato all’invenzione di Internet e del web, che i sostenitori dell’accesso aperto estendono ai contenuti scientifici, è evidente. Il web è refrattario all’uso di sistemi di filtro precedenti alla pubblicazione, che è inve­ce una caratteristica dell’accademia come istituzione (attualmente una riflessione sui criteri di valutazione è al centro del dibattito tra ricercatori, amministratori, fi­nanziatori delle università, e tra questi e i governi).

Per favorire l’affermarsi dell’accesso aperto, una tappa fondamentale è però demandata alle policy istituziona­li, cioè ai regolamenti emanati dagli enti di ricerca che obblighino o incentivino i ricercatori che pubblicano i propri risultati con i fondi di una data istituzione pub­blica a depositare i prodotti della ricerca nell’archivio della stessa istituzione, o che stabiliscano criteri per incentivare la pubblicazione su riviste Open Access.

Dal 2006 in poi abbiamo assistito ad una crescita pro­gressiva del movimento: da un lato la sperimentazio­ne da parte di alcuni editori di politiche Open Access, dall’altro la sottoscrizione di oltre cinquanta policy in favore dell’accesso aperto. Nell’anno successivo na­scono molti progetti di digitalizzazione, pubblicazione, archiviazione e numerosi servizi finanziati con fondi pubblici. Le policy sottoscritte dalle principali istituzio­ni pubbliche, associazioni scientifiche e università del mondo in favore dell’accesso aperto ammontano a circa ottanta, mentre i mandati arrivano a venti.

Un passaggio ulteriore è costituito dalle norme inserite nei sistemi di valutazione della ricerca britannico e au­straliano, le quali vincolano il processo di valutazione dei prodotti della ricerca al loro deposito in archivi aper­ti. Collegando gli archivi aperti alle anagrafi della ricerca si stabilisce che il deposito in archivi Open Access è una precondizione necessaria o un incentivo per acce­dere ai finanziamenti pubblici alla ricerca.

Il movimento Open Data, analogamente, promuove iniziative volte a eliminare le barriere economiche, so­ciali e culturali per la libera condivisione dei dati.

Open Data (una filosofia che è al tempo stesso una pratica) implica che alcune tipologie di dati siano ac­cessibili senza restrizioni di copyright, brevetti o altre forme di controllo che ne limitino il libero accesso e la riproduzione. In particolare è importante che siano resi pubblici e aperti i dati di interesse ambientale, economico-sociale, medico e genetico, che si costituiscono attraverso la ricerca finanziata con denaro pubblico e devono dunque essere fruiti dalla collettività che li ha finanziati. Le radici dell’Open Data possono essere in­dividuate anche entro il contesto dell’Open Science (movimento che sostiene la condivisione delle scoperte e il riuso dei dati) e del contiguo movimento dell’Open Access (che persegue la via dell’accesso aperto dei ri­sultati delle ricerche accademiche, finanziate anch’esse con denaro pubblico). Altri studiosi fanno risalire le origi­ni dell’Open Data al movimento dell’Open Government, un orientamento che prevede l’apertura dei governi e delle pubbliche amministrazioni verso nuove forme di trasparenza, partecipazione e collaborazione dei citta­dini alla cosa pubblica, al fine di favorire azioni efficaci e garantire un controllo pubblico sul loro operato. L’Open Government è oggi considerato come il pilastro più importante di una democrazia ben funzionante, perché in grado di conciliare due elementi: e-democracy (uso innovativo dei nuovi media per migliorare il governo de­mocratico mediante la partecipazione diretta dei cittadini nell’assunzione delle decisioni politiche); l’e-government (uso delle tecnologie dell’informazione e della comunicazione nelle istituzioni di governo).

Numerose iniziative di progetti di pubblicazione di Open Data nascono da parte di amministrazioni pub­bliche, che rilasciano sempre più spesso dataset aperti, con l’obiettivo di aumentare la consapevolezza della necessità dell’accesso aperto per i dati prodotti nell’ambito scientifico e della pubblica amministrazio­ne. Sempre più spesso si fa strada la definizione di Linked Open Data (LOD) in riferimento a dati tra loro correlati, interoperabili e aperti, vale a dire non condi­zionati da licenze commerciali o restrizioni d’uso. L’e­sposizione dei dati nella forma di Linked Open Data consente la scoperta, l’accesso, l’uso e l’integrazione dei dati offrendo un potente strumento per condivide­re e riutilizzare i dati su scala mondiale e consentendo un aumento del valore grazie al riuso.

Antonella De Robbio in Forme e gradi di apertura dei dati: i nuovi alfabeti dell’Open Biblio tra scienza e società parla di Open Bibliographic Data o Open Biblio, come un terzo luogo tra i due territori della scienza e dell’ambiente sociale, relativi ai movimenti Open Science e Open Government. Open Bibliographic Data viene definito come un territorio che collega i due precedenti e riguarda la meta-informazione, os­sia i cataloghi delle biblioteche, i database bibliogra­fici, i tesauri, gli schemi di classificazione, ma anche gli archivi aperti e gli archivi di materiale didattico e­learning. Diventa cruciale costruire buoni metadati, compatibili con i Principi Panton, il cui focus è sulla diffusione degli Open data nel panorama e-science, come ha dichiarato John Wilbanks, uno degli au­tori dei Principi. Nello stesso solco si inserisce la Di­chiarazione di Gent, messa a punto dai promotori del progetto OpenAIRE, che intende favorire iniziative che mirano alla creazione e utilizzo di dati, software e risorse educative aperte. L’obiettivo è la creazione di una rete sociale europea della conoscenza che, te­nendo come punto di riferimento la filosofia dell’ac­cesso aperto alla ricerca e alla conoscenza, possa co­minciare a creare collegamenti tra documenti e nuovi legami di collaborazione tra individui, istituzioni ecc., con un notevole risparmio sui costi di gestione. «La biblioteca tramite l’Open Biblio può creare un ponte d’oro tra le istituzioni e il cittadino se biblioteca pubblica, tra scienza e società se biblioteca accademica o di ricerca». In quest’ottica, l’Open Biblio si pone al centro di uno schema che abbraccia i campi di perti­nenza delle biblioteche universitarie, tra Open Access, Open Library, che si riferisce allo sviluppo di progetti che mirano a creare pagine web per ogni libro pubbli­cato, permettendone l’accesso libero, la condivisione e la diffusione (l’Open Library Project nasce all’interno di Internet Archive), Open Data e l’intero universo della didattica a distanza e aperta, l’Open Learning, che va dall’utilizzo di piattaforme come Moodle, alla nascita dell’Open Courseware, che utilizza le Open Educatio­nal Resources (OER) - risorse didattiche aperte le cui caratteristiche sono individuabili nella disponibilità del codice sorgente aperto e nell’uso di licenze appro­priate che favoriscano il riuso - ai più recenti Massive Open Online Courses (MOOC), corsi di grandi dimen­sioni ad accesso massivo.

Conclusioni

Ricostruendo il dibattito e presentando le diverse posizioni in campo, abbiamo cercato di indagare il contributo che la teoria biblioteconomica può portare nell’elaborazione di un nuovo ruolo e un nuovo riposi­zionamento delle biblioteche digitali nel web, ambien­te che ha completamente stravolto il modo in cui la conoscenza viene costruita, gestita e distribuita. Gli altri attori di questi processi sono gli scienziati, gli intellettuali e i cittadini comuni che pure si trovano a con­frontarsi con processi della comunicazione scientifica molto diversi rispetto ai meccanismi consueti. In Rete i filtri tradizionali non funzionano più ed è pertanto ne­cessario lavorare alla costruzione di nuovi meccanismi di filtro, e in questo il Semantic Web gioca un ruolo for­tissimo; la scienza va avanti svincolata dal concetto di autorità e per accumulazione progressiva (per contro la questione della ‘qualità’ diventa cruciale).

Inoltre si fa strada un movimento sempre più forte che, partito dai pionieri della Rete, concepita come un si­stema in cui le persone possono liberamente condivi­dere le informazioni, ha poi investito in maniera pro­gressiva la comunità scientifica e i cittadini comuni (i cosiddetti movimenti ‘dal basso’), chiedendo l’acces­so aperto alla letteratura scientifica, ai dataset della ricerca (ma anche ai dati amministrativi, sanitari ecc.), insomma a tutto quello che viene prodotto e finanziato con i soldi pubblici e che deve ritornare alla comunità e a tutto quello che è frutto della libera collaborazio­ne dei cittadini. Le istituzioni culturali come le univer­sità e le biblioteche partecipano di questi processi e possono dare il loro contributo nella costruzione della visione della conoscenza e della scienza come com­mons, come beni comuni, sfruttando gli strumenti del Semantic Web per garantire l’interoperabilità tra vari silos, la cooperazione tra diverse comunità, la porta­bilità e il riuso, la qualità di dati e metadati prodotti, l’apertura dei dati (si pensi ai dataset della ricerca), dei metadati e dei documenti (repository della ricerca, riviste ad accesso aperto, open monographs).

Ci sono due punti chiave su cui è bene soffermarsi: il primo è relativo alla selezione del sapere secondo criteri di qualità.

Abbiamo evidenziato che il nuovo mezzo digitale può far crescere la scienza per accumulazione di saperi in maniera più ‘democratica’. Lo stesso concetto viene ribadito da Tim Berners-Lee: «è noto che una raccolta di testi, come un insieme di report tecnici o una biblio­teca, include soltanto quegli articoli che raggiungano un certo livello di qualità» e «alcuni ritengono l’assenza di simili sistemi un limite del web». Tuttavia,

la scienza va avanti svincolata dal concetto di auto­rità e per accumulazione progressiva. È importante che il web in sé non tenti di promuovere una singola nozione di qualità, ma continui a raccogliere ogni in­formazione, vera o falsa che sia. È questa una carat­teristica che può certamente rappresentare un limite. Tuttavia, un’autorità centrale che eserciti un controllo sulla qualità sarebbe assai più dannosa degli svan­taggi che l’apertura del sistema può comportare; e se è vero che nessuno può essere in alcun modo obbligato a leggere letteratura di bassa qualità, è al­tresì vero che, come mostra la storia della scienza, appunti che oggi sono considerati marginali potreb­bero, un domani, essere a fondamento di nuove idee dalla portata rivoluzionaria.

Un’opinione, questa, non molto diversa da quella di Weinberger, ma alla quale Tim Berners-Lee fornisce anche la chiave tecnologica e applicativa per ovviare alla necessità di mantenere alta la qualità delle infor­mazioni e al contempo mantenere il web aperto anche a persone i cui criteri di giudizio sono diversi. I nuo­vi filtri dovranno sfruttare l’organizzazione semantica dell’informazione, che darà la possibilità ai ricercatori e agli utenti di condividere e creare percorsi diversi, mantenendo comunque la Rete svincolata da un’au­torità centralizzata.

Frank van Harmelen, uno dei ricercatori più impegna­ti a livello internazionale nello sviluppo del Semantic Web, scrive:

Il Semantic Web sarà un successo soprattutto se rimarrà invisibile. Tutta la tecnologia di cui abbiamo parlato fino ad ora è davvero ‘sotto la superficie’. La sola cosa che si noterà navigando sul web è che la qualità dei risultati che vengono restituiti dai motori di ricerca sarà molto migliore rispetto al passato.

Il secondo punto riguarda la convergenza tra la con­cezione del web e della biblioteca come spazio di do­cumentazione.

Giovanni Solimine, a proposito del pensiero di Shiyali Ramamrita Ranganathan, della prima legge ha sot­tolineato la centralità del servizio, diretta conseguenza del fatto che il fine ultimo della produzione di docu­menti è la loro utilizzazione, e che il fine ultimo delle biblioteche è l’uso (libraries are for use), e che tutta la vita delle biblioteche dovrebbe essere orientata alla produzione di servizi per l’utenza. Declinando que­sto aspetto al nostro discorso possiamo dire che è compito delle biblioteche e dei bibliotecari promuovere l’accesso alla conoscenza e la disseminazione dei suoi prodotti. La seconda e terza legge traducono l’i­dea di servizio:

La biblioteca ha il compito di stabilire una comunica­zione biunivoca tra documenti e utenti, costruendo raccolte che siano coerenti con i fini istituzionali e con i bisogni informativi degli utenti, allestendo strumenti di mediazione catalografica accessibili per gli utenti, ed assistendo questi ultimi nella loro attività di ricer­ca, in modo da favorire l’incontro tra libri e lettori.

Altro aspetto è che chiunque acceda a una biblioteca deve poter usufruire di tutti i libri in essa contenuti (e in questo senso la riflessione sull’accesso aperto può risultare importante). Compito del bibliotecario è fa­cilitare questo incontro. La quarta legge si riferisce all’efficienza del servizio, sia per i lettori che per la bi­blioteca. L’ultima legge racchiude infine tutte le altre: il concetto di crescita non va letto solo come crescita quantitativa delle collezioni documentarie, «ma va riferi­to anche al potenziale informativo che una biblioteca è capace di mettere in campo per fronteggiare le richie­ste dei suoi utenti». Si stabilisce così un’analogia tra la biblioteca e l’individuo, e anche una relazione con le evoluzioni tecnologiche che possono determinare una trasformazione della biblioteca stessa.

Nel 2004, Alireza Noruzi ha proposto un’applicazio­ne delle cinque leggi di Ranganathan al web: il lettore viene sostituito con la parola ‘utente’ che fa riferimento sia agli uomini sia alle macchine ad ulteriore testimo­nianza della compresenza di più attori di diverso tipo nell’ambiente digitale.

Nell’interpretazione dell’autore la prima legge presup­pone che la rete possa essere usata come strumento per l’apprendimento:

Il web è stato progettato per soddisfare il bisogno degli uomini di condividere risorse informative, co­noscenza e esperienze. I webmaster vogliono che le persone interagiscano con i loro siti e pagine web, clicchino, leggano, stampino se ne hanno bisogno, e si divertano. Quindi i siti web non sono statue o tem­pli che gli utenti ammirano da lontano. Questa legge implica che il web è per l’uso, per l’apprendimento e l’informazione ed è lì per essere utilizzato. Questa legge è molto importante perché le informazioni non servono se non vengono utilizzate e non sono dispo­nibili per le persone che vogliono imparare. Il ruolo del web è quello di servire l’individuo, la comunità e il servizio, e per massimizzare l’utilità sociale nel processo di comunicazione.

[...]

Il web è fondamentale per la libertà intellettuale, so­ciale e politica. Una società veramente libera, senza il web gratuitamente a disposizione di tutti è un ossimo­ro. Una società che ha censurato il web è una socie­tà aperta alla tirannia. Per questo motivo il web deve contenere e conservare tutti i record di tutte le società, le comunità e le lingue e questa documentazione deve essere a disposizione di tutti. Dovremmo mettere l’ac­cento sul libero accesso alle informazioni.

Anche la mancanza di filtri centralizzati (caratteristica che, come abbiamo visto, deve rimanere come pro­prietà della rete) aderisce alla prima legge. La seconda legge si riferisce alla ricerca di un equilibro tra la cre­azione di risorse e il diritto di avere pari opportunità di accesso alle risorse in qualsiasi parte del mondo.

Un sito web deve formulare politiche di accesso che assicurino che la raccolta costruita e mantenuta sia adeguata e sufficiente a soddisfare le aspettative del­la sua comunità di utenti. In altre parole, la raccolta deve essere adeguata alla mission del sito web. Un sito web deve contenere le risorse adeguate per le esigenze di tutti i suoi utenti. Qualsiasi sito web che limita l’accesso deve garantire che questa restrizione non impedisca un accesso adeguato alla raccolta da parte degli utenti per cui il servizio è stato creato. I criteri di accesso hanno anche implicazioni per i mo­tori di ricerca.

Al centro vi è la questione delle politiche di accesso, diffusione e disseminazione della conoscenza (da par­te di essere umani e macchine-motori di ricerca). La terza legge afferma che una risorsa sul web esiste per ogni utente, ed è pertanto necessario sfruttare gli stru­menti che il web mette a disposizione per facilitare la navigazione e il reperimento delle informazioni:

Questa terza legge è la più ragionevole, ed è costan­temente infranta dalla maggior parte dei webmaster e da coloro che scrivono sul web. Questa legge stabili­sce che esiste una risorsa web per ogni utente, e che la risorsa deve essere ben descritta e indicizzata nei motori di ricerca, visualizzati in maniera accattivante sul sito, e resa prontamente disponibile per gli uten­ti. Questa legge porta naturalmente a pratiche come l’accesso aperto, a una struttura del sito coerente, a una mappa adeguata, e a un motore di ricerca per ogni sito. “Dovrebbe essere facile per gli utenti cercare informazioni da qualsiasi pagina di un sito. Ogni pagi­na dovrebbe includere una casella di ricerca, o almeno un link ad una pagina di ricerca” (Google 2003).

La quarta legge è direttamente collegata alla terza e costituisce la sfida per ogni sviluppatore, progettista e mediatore dell’informazione:

Questa legge ha sia una componente di front-end (assicurarsi che le persone trovino rapidamente ciò che stanno cercando) che una componente di back­end (assicurarsi che i nostri dati siano strutturati in modo tale che le informazioni possono essere recu­perate in fretta). È inoltre indispensabile capire quali obiettivi i nostri utenti stanno cercando di raggiunge­re attraverso il nostro sito.

È fondamentale mettere in condizione l’utente di tro­vare rapidamente l’informazione che cerca, attraverso una buona progettazione del servizio.

Al fine di risparmiare il tempo degli utenti, i siti web hanno bisogno di sistemi che permetteranno loro di trovare ciò che stanno cercando in modo rapido e preciso, oltre che per esplorare la grande quantità di raccolta di informazioni disponibili che potrebbe­ro essere potenzialmente utili. Questa quarta legge sottolinea l’efficienza del servizio per gli utenti, il che implica un buon design e una mappa/indice del sito facile da capire.

Infine, l’ultima legge si riferisce ad una caratteristica intrinseca della rete, un organismo in continua crescita ed evoluzione (cambiano e crescono le collezioni, gli strumenti tecnologici ecc.) e alla necessità di progetta­re e governare questa crescita in maniera sistematica.

La quinta legge ci racconta l’ultima caratteristica fondamentale del web e sottolinea la necessità di un costante adeguamento della nostra prospettiva nei rapporti con esso. Il web cresce e cambia e lo farà sempre. Trasformazione e crescita vanno di pari pas­so, e richiedono flessibilità nella gestione della rac­colta web, nell’uso del cyberspazio, nella conserva­zione e nella distribuzione di utenti, e nel carattere dei programmi. Le collezioni cambiano e aumentano, le tecnologie dell’informazione cambiano, e le persone cambieranno. Quindi questa quinta legge riconosce che la crescita sarà senza dubbio verificata e dovrà essere pianificata sistematicamente […] Il web pre­senta un dilemma interessante per i bibliotecari. In­fatti, mentre solo circa cinquantamila libri sono pub­blicati ogni anno negli Stati Uniti, il World Wide Web contiene una riserva sempre crescente e mutevole di circa trecentoventi milioni di pagine web. Quando viene pubblicato un libro, esso è stato valutato dai redattori e gli editori, e si spera che abbia un certo valore. Quando una pagina web viene pubblicata, si trova semplicemente su un server da qualche parte. Non ci sono linee guida per il web. Chiunque può pubblicare e lo fa. I bibliotecari possono svolgere un ruolo importante nel districarsi in questa mole di risorse e stabilire elenchi annotati di link sicuri che l’utente può usare. Le abilità del bibliotecario nell’am­bito di settori quali indicizzazione, catalogazione e tecniche di ricerca saranno sempre più utili; ci sarà un aumento della domanda per questo tipo di competenze poiché gli utenti attribuiscono più valore alla ricerche che conducono.