Back

La valutazione ingessata

La valutazione ingessata

di Paolo Ferratini (esperto di sistemi scolastici)

Una situazione che non piace a nessuno

Si dibatte molto, negli ultimi anni, di valutazione di ogni tipo (di sistema, del lavoro docente, delle performances di istituto, ecc.). Per quanto riguarda gli studenti, ci si è giustamente concentrati sulla valutazione delle competenze da parte di agenzie esterne alla scuola (Pisa, Invalsi, ecc.). mi sembra invece passare sotto silenzio il nodo di come effettivamente si valutano gli apprendimenti dei ragazzi nelle scuole. Riportare su questo l’attenzione è importante, perché significa interrogarsi sulla scuola reale e individuare gli ostacoli fattuali che oggi ancora rischiano di rendere lettera morta qualunque innovazione didattica fondata sulla misurabilità e comparabilità dei risultati che produce. Da anni, del resto, attendiamo il varo del nuovo decreto sulla valutazione

Partiamo dalle procedure di routine. A seconda della disciplina e delle prassi consolidate da sempre, il percorso valutativo che pratichiamo consiste di una certa varietà di prove, la cui misurazione concorre alla formulazione di un voto numerico in decimi. Anche la misurazione delle singole prove avviene in decimi, indipendentemente dalla natura delle stesse. La distinzione di orale e scritto deriva dalla consuetudine e riflette soltanto il mezzo espressivo, non la molteplicità dei contenuti di apprendimento che rileviamo attraverso le prove. In attesa del nuovo decreto sulla valutazione, le scuole si muovono ancora, in gran parte, nel solco della tradizione. Essa è così forte da farci accettare veri e propri nonsense (compiti scritti che “valgono” per l’orale), o a considerare, viceversa, come appartenenti ad una medesima classe (lo “scritto”) prove che testano in realtà tipi di competenza molto distanti fra loro (per es.: un’analisi di testo e un saggio breve); o, che è peggio, a non rilevare il livello di competenza che emerge da una prova, perché non attinente allo specifico disciplinare della materia nel cui ambito quella prova si svolge (per es.: la competenza linguistica che emerge in una relazione di laboratorio o in un questionario a domanda aperta di storia o di biologia).

A tutto questo si aggiunge un’ambiguità grave, tutte le volte che cerchiamo di dar conto ai ragazzi e alle famiglie di strumenti, metodi e fini della valutazione. Siamo infatti soliti dire loro due cose:

a) che la valutazione finale non è data dalla media aritmetica delle misurazioni delle singole prove;

b) che lo stesso voto dato in due prove diverse può non avere lo stesso peso (lo scritto pesa più dell’orale, un compito di verbi conta meno di un esercizio di traduzione).

Queste due avvertenze da un lato riflettono la giusta preoccupazione di tenerci un margine di iudicium soggettivo, legato ad elementi non facilmente quantificabili e che tuttavia riteniamo importanti (l’impegno, la progressività, il percorso compiuto dal singolo rispetto al punto di partenza, ecc.); dall’altro esprimono la consapevolezza che non tutte le prove sono omogenee, quanto alla loro capacità di rilevare conoscenze e competenze acquisite. Va tuttavia detto che tali avvertenze sono assai poco coerenti con il sistema di valutazione in uso. Se infatti adottiamo la stessa metrica per le valutazioni in itinere e per quella finale, non si capisce perché questa non debba risultare dalla media delle prime. Il risultato di questa evidente incoerenza è che ragazzi e famiglie continuano a far la media con le macchinette e che noi continuiamo a dir loro che l’esito certificativo non si ottiene così (salvo più o meno fare così anche noi in sede di scrutini: “la media farebbe quattro e mezzo scarso, se volete posso portarlo a cinque”).

Il fatto poi che le prove in itinere siano diverse tra loro, non solo per ciò che misurano, ma anche per l’ampiezza e la varietà degli “oggetti” cognitivi che misurano, non fa che aumentare il nostro imbarazzo e rendere ancor meno perspicua la valutazione (strumenti, metodi e fini) a studenti e famiglie. E forse anche a noi stessi.

Ma cosa valutiamo quando valutiamo?

A parte l’inadeguatezza evidente dell’ opaca separazione fra scritto e orale – il che non vuol dire che non si debbano praticare entrambe le forme espressive, ma significa che non è di lì che passa una diagnosi seria della molteplicità dei risultati di apprendimento – un esame spregiudicato delle nostre consuetudini didattiche porta a dire altresì che, in linea di massima:

1) misuriamo con un voto solo più oggetti degni di valutazione;

2) utilizziamo la stessa metrica per valutare prove di natura affatto diversa;

3) utilizziamo la stessa metrica per la valutazione diagnostico-formativa, per la valutazione sommativa e per la valutazione certificativa (o finale)

1) Prendiamo, a titolo di esempio, una prova complessa: la traduzione di un brano dal latino.

Quali conoscenze, abilità e competenze sono in gioco?

conoscenze: morfosintattiche, lessicali, (se si aggiunge anche il commento) storiche

abilità: la capacità di applicare schemi ricognitivi della struttura sintattica, la capacità di servirsi del dizionario

competenze: saper applicare conoscenze e abilità per lo svolgimento autonomo di un compito nuovo, saper costruire un testo coerente passando da una lingua ad un’altra (transcodificazione).

La soluzione di questo nodo complesso di elementi non è attribuire a ciascuno di essi un voto in decimi e poi fare la media (sarebbe comunque un passo avanti rispetto ad una valutazione derivata dalla somma e sottrazione di segni rossi e blu, come facciamo di solito), bensì osservare e annotare, per ciascun allievo, il livello di adeguatezza elemento per elemento. In sede di valutazione diagnostico-formativa, infatti, il risultato di una prova non deve esprimersi ancora con un giudizio sintetico, ma fornire al docente e all’allievo la fotografia di una fase del suo apprendimento. Adottare una metrica diversa da quella in decimi ci aiuterebbe a tenere distinti questo passaggio della valutazione da quello, intermedio, della valutazione sommativa – questa sì da esprimersi in decimi – che avverrà quando si potranno tirare i primi fili del percorso (per esempio al termine di una serie di unità didattiche coerenti e sequenziali). Evidenti anche i vantaggi nell’individuazione degli aspetti su cui puntare per un eventuale recupero.

2) Immaginiamo ora una prova di altra natura: un questionario a risposta chiusa, o un’esercitazione di accertamento sulla coniugazione verbale latina. Qui le cose sono più semplici. Che cosa valutiamo? Solo ed esclusivamente conoscenze, qualche abilità procedurale e stop. Ma usiamo la stessa misurazione in decimi che per il primo tipo di prova. Ha senso? Dobbiamo allora non valutare questo tipo di prove o non farle affatto? No di certo. Si tratta di valutarle diversamente. Altrimenti continueremo sempre a sommare le mele con le pere.

3) Siamo allo scrutinio finale (dove, si badi bene, scompare la distinzione fra scritto e orale, a dimostrazione della sua dubbia legittimità anche all’interno del modello stesso che l’ha partorita). Apriamo il registro e sommiamo voti che vogliono dire cose diverse, come se fossero omogenei, poi dividiamo per il loro numero. Viene fuori una media aritmetica che spesso non ci soddisfa. Allora rivendichiamo il iudicium e facciamo tornare i conti, secondo un processo mentale tutto implicito, che non rendiamo evidente nemmeno a noi stessi. Per lo più ci prendiamo. Ma della valutazione ci resta solo l’esito certificativo – per certi versi il meno rilevante; e ne abbiamo perso per strada, in questo modo, i due aspetti più pregiati: a) la sua trasparenza e leggibilità, che significa anche autorevolezza e legittimità; b) il suo valore formativo, la sua capacità di fornire allo studente indicazioni utili per rettificare il proprio percorso, capire cosa manca, riflettere sulle proprie debolezze ma anche conoscere e vedere riconosciuti i propri punti di forza.

Scuola democratica
Scuola democratica