In questo periodo non aggiorno spesso il blog: siamo nel pieno del semestre e in pratica devo dedicare ai corsi e agli elaborati degli studenti ogni momento disponibile. Riesco però a leggere ancora qualcosa (di notte), e l’ultimo libro che ho finito è stato l’interessante Measuring up: what educational testing really tells us di Daniel Koretz, docente di “Education” all’università di Harvard (prima edizione, 2008; io ho letto il libro nell’edizione tascabile, Harvard University Press, Cambridge (Mass.) e Londra, 2009, ISBN 978-0-674-03521-8).
Measuring up si dedica a un argomento per me affascinante: la valutazione educativa sommativa, cioè, in sostanza, il vedere quanto hanno imparato gli studenti alla fine di un corso o di un ciclo di studi. In America su questo genere di test (dal famoso SAT in giù) si costruiscono le politiche educative; in Italia non c’è nulla di simile, ma ci sono molte spinte ad andare in questa direzione, a cominciare dalle disposizioni che impongono test d’ingresso per l’iscrizione all’Università, ed essere aggiornati sulle esperienze d’oltreoceano è senz’altro fondamentale. Un po’ per impararne qualcosa senza pregiudizi, un po’ per evitare facili entusiasmi.
Certo, il libro di Koretz è rivolto più ai genitori che ai colleghi, ma le cose che dice sono di estremo buon senso e confortano anche chi, come me, da anni è impegnato nella costruzione di test. Intanto, un punto chiave è che la valutazione è sempre valutazione di un minimo sottoinsieme di ciò che una persona è, sa o sa fare. Per quanto si possano costruire test sofisticati, misurare intelligenza, conoscenze e competenze degli esseri umani non è come misurarne il peso o l’altezza. Koretz insiste piuttosto sul paragone tra i test e le indagini statistiche o i sondaggi politici: non potendo misurare l’assieme, si prende un sottoinsieme rappresentativo (di elettori, o di competenze) e si cerca di misurare quello. Ma, così come non sempre i sondaggi indicano quello che sarà il vero vincitore delle elezioni, i test possono fornire indicazioni solo approssimative – e per esempio, test ripetuti sugli stessi campioni di studenti mostrano che i singoli individui possono ottenere risultati anche molto diversi a seconda del giorno, di minime differenze nella formulazione dei quesiti e così via.
Ciò non vuol dire, ovviamente, che la valutazione sia inutile. Vuol dire però che va sempre presa con un granello di sale, e in modo non meccanico (o meglio, aggiungo io: che ha senso usarla in modo meccanico solo se si vuole fare un filtraggio all’ingrosso e al risparmio, senza preoccuparsi troppo dei risultati). Dopodiché, Koretz passa a illustrare una serie di aberrazioni ed errori frequenti nei sistemi americani. In particolare, fa una pessima figura il No Child Left Behind Act fortemente voluto da Bush jr., che della valutazione sistematica dei risultati degli studenti fa uno dei suoi punti cardine.
In sostanza, cent’anni di classifiche e test a risposta multipla non sono bastati a rendere universale negli stessi Stati Uniti la consapevolezza delle possibilità e dei limiti della valutazione; il che fa venire molti dubbi sui tentativi di importare cose simili nell’assai meno smaliziata Italia. Dove la preoccupazione principale è ancora, figuriamoci, quella di avere un alto numero di bocciati agli esami in quanto “garanzia di serietà”...
Koretz insiste poi molto sul fatto che, comunque vadano le cose, quando un test diventa standard sia gli studenti sia i docenti si dedicano a quello, abbandonando il resto, creando un problema strutturale di inflazione nei voti. Il suo riferimento è alla nota Legge di Campbell, ma la saggezza popolare italiana ha da un bel pezzo codificato questo modo di procedere nel più universale principio “fatta la legge, trovato l’inganno”. Ahimè, non esistono sistemi di valutazione che siano tanto poco ingannabili quanto un metro, o una bilancia – ma forse questo è un bene.
P. S. La foto messa in copertina è meravigliosa.
P. S. La foto messa in copertina è meravigliosa.
1 commento:
Mi viene un dubbio, forse non molto ragionevole e forse del tutto idiota, e che il livello decisamente elevato di questo blog mi spinge ad esprimere. Cioè, se un sottoinsieme di competenze non sia costituito da elementi sostanzialmente eterogenei, che vengono assimilati tra di loro solo dal sintagma competenze, che si usa per definirle in questo contesto specifico. Mentre gli elettori, in quanto elettori, formano un insieme costituito da elementi sostanzialmente uguali e definibili come tali anche in altri contesti. Mi domando quindi se i due insiemi non costituiscano (vedi Russell e Whitehead) classi diverse e quindi non paragonabili. In sostanza, mi sembra che sullo sfondo (loose metaphor, ma chiedo perdono) ricompaia il problema del significato. Cosa si intende per test? e cosa si intende per sondaggio? e cosa si intende per indagine statistica?
Un saluto.
Posta un commento