Network Bar

lunedì 26 novembre 2012

Valutiamoci

Moreno chiede:
Volevo chiederti, ma allora la ricerca è invalutabile? E se invece è valutabile, quale metodo si può utilizzare se non quello di misurare le pubblicazioni e il loro impatto? Lo chiedo perché spesso sento critiche rivolte al sistema di valutazione, ma raramente leggo proposte nuove. Lo so che è un problema complesso, ma esiste comunque una soluzione? Esiste qualche buon modello da copiare all'estero?
Con (colpevole) ritardo, provo a rispondere (la prenderò un po' larga).
Valutare qualcuno o qualcosa è sempre un momento estremamente difficile. Le difficoltà in questo genere di attività, sono molteplici: innanzitutto bisogna capire cosa bisogna valutare, quindi dare un peso a ciascun aspetto da valutare e infine sintetizzare tutto questo lavoro in un numero che rappresenti chi o cosa è stato valutato. Il rischio in tutto il processo di valutazione è essere eccessivamente se non addirittura esclusivamente quantitativi, tagliando quindi fuori dalla valutazione degli indicatori che potrebbero essere più importanti di quelli puramente quantitativi.
Se in effetti osserviamo al passato più o meno recente, criteri troppo quantitativi rischierebbero di tagliare le gambe a molti tra matematici e fisici teorici che hanno fatto la storia di queste discipline. Sto pensando in particolare a Andrew Wiles, che con criteri eccessivamente quantitativi non avrebbe mai avuto la dovuta tranquillità per dimostrare il Teorema di Fermat. Alla lista si potrebbe aggiungere anche Georg Cantor, che per parte sua è riuscito a pubblicare il proprio lavoro solo grazie a Mittag-Leffler, suo amico e fondatore della rivista Acta Mathematica, non proprio una rivista ad alto impatto: questo vuol dire che le sue ricerche, che hanno avuto un deciso e grosso impatto nella matematica, non gli permetterebbero, come non gli hanno permesso (in fondo il sistema di valutazione non è cambiato molto nell'ultimo secolo), di emergere come sperava, pur se erano più che sufficienti per mantenere il suo posto a Halle.
D'altra parte l'utilizzo di arXiv o di sistemi simili per altre discipline permette di diffondere il proprio lavoro in maniera più semplice, al di là delle logiche spesso di mercato che stanno dietro le riviste ad alto impatto, un po' come accadde a Perelman(1) che proprio grazie a questo database di draft ha ottenuto premi e offerte di lavoro, tutti puntualmente rifiutati (ma questo è un altro discorso che qui non ci interessa).
Una valutazione eccessivamente quantitativa, poi, rischia di far perdere il perché e il percome della ricerca scientifica, spostando l'attenzione verso direzioni con ricadute immediate, tagliando ancora una volta fette di ricerca che hanno fatto la storia dell'umanità.
Dopo questa lunga premessa direi che posso anche azzardare una risposta: il modello che dovrebbe essere di riferimento, quello da cui partire per costruire un buon modello non solo di valutazione ma in generale di ricerca scientifica è proprio quello che ha permesso a Andrew Wiles di dimostrare il Teorema di Fermat. Che poi è il modello britannico o più in generale anglosassone.

(1) Perelman non è certo l'esempio migliore, visto che vive ormai lontano dalla scienza e della matematica, nella sua Russia, insieme con la madre e non sembra intenzionato a tornare al lavoro nel campo, come emerge leggendo l'articolo di Brett Forrest che lo ha incontrato.

1 commento:

  1. Caro Gianluigi, il problema è complesso e non basta dire "il sistema inglese", perché anche quello è un sistema in evoluzione: per anni si è parlato di sostituire il RAE (Research Assessment Exercise) con un sistema "guidato" dagli indici bibliometrici, e alla fine non se ne è fatto niente (per fortuna).

    Secondo il mio modesto parere, la valutazione del singolo non può in alcun modo prescindere dalla lettura degli articoli prodotti. Due o più revisioni si leggono uno o due paper rilevanti prodotti dal ricercatore da valutare. Eventualmente, tale valutazione può essere supportata dal curriculum (e può essere utile guardare su quali journal è stato pubblicato il lavoro del ricercatore).

    In ogni caso, una valutazione automatica è senza dubbio perniciosa, per tutta una serie di ragioni. Tanto tempo fa, all'inizio dell'era Gelmini scrissi questo post:

    http://noisefromamerika.org/articolo/mission-impossible-come-valutare-professori

    Vorrei scriverne un altro, più aggiornato alle recenti vicende ANVUR, vediamo se riesco a farmi vedere la voglia!

    RispondiElimina