Riviste scientifiche e ricerca: il conflitto di interessi delle pubblicazioni
di ECONOMIA E POLITICA (Paolo Pini, Daniele Rinaldi)
Riviste scientifiche | Le pubblicazioni scientifiche necessarie per l’accesso alla carriera universitaria sono oggi legate al conflitto di interessi di un giro d’affari fatto di riviste esclusive e citazioni che finisce inevitabilmente per peggiorare la qualità della ricerca accademica.
La pubblicazione degli articoli scientifici, frutto della ricerca con risorse pubbliche, non è un tema meramente editoriale, anche se coinvolge il mondo dell’editoria internazionale. Come avviene con tutto ciò che può avere un mercato, gli articoli scientifici sono anche prodotti commerciali. Inoltre, essendo una forma di comunicazione, modificano ed influenzano il mondo attorno a sé.
Il primo aspetto non è di poco conto, come ha notato Andrea Capocci su Il Manifesto (25/11/18)[1]. Sottolinea Capocci: esistono due tipi di riviste che alimentano un giro di affari enorme. Vi sono quelle che pubblicano gratuitamente, previa “revisione” di esperti. Sembra tutto bene, senonché gli autori devono cedere i diritti d’autore alla rivista stessa, da cui segue che gli articoli scientifici prodotti con ingenti risorse pubbliche diventano proprietà privata, e le stesse università per le quali lavoriamo devono comprare sul mercato editoriale il frutto dell’impiego delle loro risorse. Le riviste scientifiche sono iper-specializzate, quindi molto numerose, e abbonarsi è costosissimo per le università che devono rimanere aggiornate su una produzione scientifica sempre più vasta ed eterogenea. Il secondo tipo comprende le riviste “free access”, che tutti possono consultare e scaricare, ma che obbligano i ricercatori a pagare, spesso con fondi pubblici, una quota che è tanto più alta quanto più la rivista è prestigiosa: 5 o 10 mila euro non sono certo cifre che singolarmente tutti possono permettersi per 4/5 pubblicazioni annue. In tal caso sono favoriti grandi gruppi di ricerca, chi può lavorare con molte collaborazioni, chi ha più risorse, spesso recuperabili lavorando con l’industria su progetti di ricerca incrementale di più facile successo e dalle ricadute immediate. La ricerca pura, teorica, radicale, sulla frontiera della conoscenza, con esiti e ricadute incerte e lontane nel tempo non è certo favorita. Del resto, “publish or perish”: se non pubblichi tanto e presto e su riviste prestigiose, non fai carriera.
In tale processo emerge una ulteriore questione, quella dei “referee”, cioè di coloro che vagliano i lavori scientifici degni di essere pubblicati. Anche costoro prestano la loro opera (tempo e competenze) in modo pressoché gratuito e sono reclutati nell’università tra gli stessi che pubblicano articoli in un determinato settore scientifico, e spesso tra gli autori che hanno pubblicato sulla rivista scelta dal ricercatore che sottopone il lavoro. Da un lato siamo redattori di articoli scientifici, dall’altro siamo valutatori per riviste e editori: un doppio lavoro generalmente duro che affrontiamo tutti con serietà ma che comporta esso stesso risorse pubbliche. Accade anche che i ricercatori più prestigiosi all’apice della carriera generalmente rifiutino un lavoro complesso di revisione che non dà loro più alcuna soddisfazione né economica né di prestigio. Capita sempre più sovente che svolgano questo compito persone piuttosto giovani, non necessariamente molto qualificate e con ampie conoscenze, vista la sempre più selvaggia specializzazione. La pubblicazione o il rifiuto di un lavoro dipendono a volte dalla sorte, piuttosto che dalla qualità intrinseca. La ricerca di eccellenza si dimostra a volte effimera, piuttosto volta non tanto ad accrescere la qualità della stessa, ma funzionale ad un processo di selezione tra metodologie, paradigmi, aree, e campi di ricerca.
A fronte di ciò vi sono affari enormi: infatti, pochissime case editrici dominano un mercato sempre più concentrato, oligopolistico, producendo le riviste più prestigiose. Il prestigio è determinato dell’Impact Factor (IF) che è desunto dal numero di citazioni ricevute dagli articoli della rivista. Il meccanismo, pensato come di per sé virtuoso, sappiamo essere distorto a causa di comportamenti non sempre morali, a volte persino illeciti, che secondo alcuni rendono “dopato” il mercato. In aggiunta, le riviste “free access” entrano a sparigliare il gioco, perché permettono ai ricercatori di trovare gli articoli da citare senza alcuna restrizione, aumentando IF e prestigio delle riviste ad accesso libero ove però paghi per pubblicare.
Al di là del fatto che il giro d’affari sia ghiotto o meno per le grandi case editrici, qui entra anche in gioco la cosiddetta libera ricerca e le carriere dei ricercatori, cioè la possibilità di vedere riconosciuta la propria maturità scientifica. Gli articoli scientifici sono certo prodotti commerciali e comunicazione, ma anche strumento (titolo) per l’accesso alle carriere accademiche. In Italia il mondo accademico si divide in bibliometrico e non bibliometrico. Che significa? Una cosa molto semplice. Chi si dedica a discipline scientifiche non hard in senso stretto (scienze sociali e umane) non viene valutato in base a parametri presumibilmente “obiettivi”, ma ad un giudizio di qualità che spesso è un mix tra ricerca di presunta oggettività e di soggettiva discrezionalità. Chi pratica discipline considerate tradizionalmente scientifiche, hard science, viene valutato in base a criteri presunti “obiettivi”, quali indicatori desunti dal numero di articoli prodotti e citazioni raccolte da ogni ricercatore. A prescindere dalla distinzione molto discussa in epistemologia tra scienze “dure” e “molli”, il problema è che i criteri “obiettivi”, prescelti tra i tanti, sono molto discutibili. Sostanzialmente non esistono criteri “oggettivi”, condivisi nella comunità scientifica, per misurare la qualità della ricerca. Se nel calcio vince chi segna più gol, nella ricerca non vince necessariamente chi ha taluni parametri bibliometrici puramente più alti, non essendo dimostrato che questi siano in relazione robusta e libera da indeterminatezza con la qualità della ricerca o del ricercatore che li ha prodotti (peraltro operando in un gruppo di lavoro). La pretesa è comunque di inferire la qualità della ricerca, variabile non osservabile, da parametri del mercato editoriale di non dimostrata robustezza.
Peraltro, occorre interrogarsi su chi controlla la massa enorme di dati citazionali per quantificare la qualità della ricerca. A fare questo sono agenzie private, simili a quelle che valutano le performance di singole imprese, dei mercati azionari, o a quelle che giudicano lo stato dell’economia, una sorta di agenzie di rating della qualità della ricerca. Le due “agenzie” alle quali si fa riferimento (il Ministero dell’Università e della Ricerca ad esempio per VQR e ASN per valutare la ricerca nelle strutture universitarie – Atenei e Dipartimenti – e per le abilitazione dei ricercatori per i ruoli di professore associato e ordinario), sono SCOPUS e ISI WEB OF SCIENCE (ISI). Se non quando si è giunti addirittura ad impiegare Google Search per definire le liste delle riviste per classe di merito, come avvenuto in area 13. SCOPUS appartiene ad una delle più grandi case editrici di giornali scientifici al mondo (Elsevier), ISI apparteneva alla Thomson Reuter ed ora è passata ad altro gruppo societario privato (Clarivate Analytics è proprietà di Onex Corporation and Baring Private Equity Asia). Difficile pensare che siano una sorta di missionari della ricerca, perché impiegano software, hardware e personale privati e la loro mission è fare profitti. Peraltro, i singoli atenei devono anche pagare per consultare queste banche dati, per cui di nuovo un flusso di risorse viene trasferito da fondi pubblici destinati all’attività di ricerca verso società private profit oriented che influenzano la ricerca stessa. Inoltre, si instaura anche un paradossale conflitto di interessi, come avviene per le più note agenzie di rating. Sono queste agenzie che raccolgono le citazioni, decidono quali riviste scientifiche rientrano nel loro database e creano gli indicatori. Ma le riviste sono di proprietà delle agenzie stesse (Elsevier) o committenti (Clarivate Analytics). Se un ricercatore scrive un articolo su una rivista che non è indicizzata da queste agenzie, è come se non avesse fatto nulla. E qui il cerchio si chiude tra Riviste-Agenzie-Ricerca. Come scegliamo ove pubblicare un nostro articolo noi ricercatori? Andiamo a vedere quali riviste sono di prestigio, quindi se e come quotate da queste agenzie, le altre le scartiamo a priori.
Ma non è finita qui, perché se la scelta della rivista è puramente speculativa, votata alla ricerca di un utile o profitto personale, anche l’argomento di ricerca è condizionato in qualche modo da queste agenzie, perché entra in gioco il fattore Hirsch (H-index). Questo meccanismo complesso è sintetizzato da un punteggio, in maniera discutibile e criticata da numerosi ricercatori di fama internazionale, in funzione di come le citazioni sono distribuite. In realtà, questo meccanismo misura non tanto la qualità (che rimane sempre una variabile di ardua misurabilità, secondo alcuni di problematica osservabilità), ma quanto sia di moda un argomento e quanto sia vasta la comunità che se ne occupa (problema di audience). L’effetto non affatto secondario è che questo meccanismo indirizza la ricerca verso le comunità più vaste, gli argomenti più di moda e dagli esiti più facilmente di successo. Perché mai fare ricerca in ambiti radicalmente nuovi, ove domina l’incertezza del successo, e ritorni futuribili, quando il mercato ti offre rendimenti più favorevoli nel breve periodo? Nessuno di noi ormai decide di spendere il tempo a disposizione e le scarse risorse a prescindere da queste considerazioni. Tutto questo condiziona pesantemente la ricerca e la libertà con cui può essere condotta. E condiziona di conseguenza le carriere dei ricercatori e la docenza universitaria, in quanto le procedure per le abilitazioni e per il reclutamento sono fortemente condizionate dall’operare di queste agenzie.
Chi scrive ritiene che tali meccanismi e condizionamenti arrechino gravi danni sul piano scientifico, culturale nonché umano alla comunità scientifica, perché limita una attività che dovrebbe sempre fondarsi su principi di libertà, opportunità ed equità per i ricercatori, principi che sono fondativi della nostra Costituzione.
* Economista Università di Ferrara
**Fisico Università Politecnica delle Marche
[1] Andrea Capocci, Libero accesso a doppio taglio, “il manifesto” 25 novembre 2018.
Commenti recenti