2008-02-19

un tanto al chilo

E' piuttosto comune concludere un percorso di formazione a distanza sottoponendo all'utente una serie di prove ed esercizi per valutare il livello di apprendimento conseguito.

In queste prove vengono confrontate le risposte date con quelle impostate come "corrette", e viene assegnato un punteggio - talvolta usando anche raffinati sistemi di ponderazione.
Punteggio che, a seconda delle regole di sequencing and navigation scelte per la succesione dei Learning Object, può anche determinare quali attività didattiche verranno successivamente proposte all'utente.

E' piuttosto comune utilizzare un valore di "soglia" per il superamento di queste prove, corrispondente in genere al 70% di risposte corrette rispetto al totale.

E' molto meno comune, invece, soffermarsi ad analizzare il restante 30% delle risposte date. Quelle "sbagliate".
P
er come è impostata l'attività di valutazione infatti, queste risposte vengono cestinate immediatamente dopo la verifica della loro "non rispondenza alla risposta attesa".

E' facile constatare come questo atteggiamento verso l'errore rappresenti un retaggio culturale dei sistemi educativi tradizionali. D'altronde, il modello scolastico rappresenta ancora il principale riferimento per l'impostazione delle attività formative - a distanza ancor più che in presenza.
Purtroppo.

Ma questo tipo di valutazione mi ha un po' stancato.
Mi sembra più indicata a stabilire chi "la sa più lunga" piuttosto che a indagare un apprendimento siginificativo. Sappiamo bene che il "sapere" non porta automaticamente al "saper fare" (qualunque cosa significhino questi due abusati termini...)

Davvero le risposte sbagliate non dicono niente su cosa sta succedendo nella mente dell'utente? Davvero non sono informazioni importanti?

La formazione non dovrebbe essere come una puntata di "Chi vuol esser milionario". O no?

Nessun commento: