Ecco una possibilità.
La valutazione delle prestazioni degli insegnanti è stata tradizionalmente difficile. Una parte di questa difficoltà è che diversi studenti hanno diversi livelli di interesse per una determinata materia. Se un determinato studente ottiene una A, ciò non significa necessariamente che l'insegnamento sia stato eccellente - piuttosto, può significare che uno studente molto dotato e interessato ha fatto del suo meglio per avere successo nonostante la scarsa qualità dell'insegnamento. Viceversa, uno studente che ottiene una D non significa necessariamente che l'insegnamento fosse scarso - piuttosto, può significare che uno studente disinteressato ha perseguitato la costa nonostante i migliori sforzi dell'insegnante per educare e ispirare.
La difficoltà è aggravata dal fatto che la selezione degli studenti (e quindi il livello di interesse degli studenti) è tutt'altro che casuale. È comune per le scuole enfatizzare una materia (o un gruppo di materie) rispetto ad altre. Ad esempio, una scuola può enfatizzare le materie tecniche rispetto alle discipline umanistiche. Gli studenti in tali scuole sono probabilmente così interessati alle aree tecniche che riceveranno un voto di passaggio anche con l'insegnante peggiore possibile. Quindi la frazione di studenti che superano la matematica non è una buona misura dell'insegnamento - ci aspettiamo che i buoni insegnanti facciano molto meglio di quello con gli studenti che sono così desiderosi di imparare. Al contrario, quegli stessi studenti potrebbero non essere affatto interessati all'arte. Sarebbe difficile aspettarsi anche dal miglior insegnante di assicurarsi che tutti gli studenti ottengano A.
Un'altra difficoltà è che non tutto il successo in una determinata classe è attribuibile direttamente all'insegnante di quella classe. Piuttosto, il successo potrebbe essere dovuto alla scuola (o all'intero distretto) che crea motivazione e quadro per il raggiungimento.
Per tenere conto di tutte queste difficoltà, i ricercatori hanno creato un modello che valuta il "valore aggiunto" dell'insegnante. In sostanza, il modello tiene conto delle caratteristiche intrinseche di ogni studente (livello generale di interesse e successo nell'apprendimento), nonché dei contributi della scuola e del distretto al successo degli studenti e prevede i voti degli studenti che ci si aspetterebbe da un "medio" insegnamento in quell'ambiente. Il modello confronta quindi i voti effettivi con quelli previsti e in base a esso decide se l'insegnamento era adeguato alla luce di tutte le altre considerazioni, migliori che adeguate o peggiori. Sebbene il modello possa sembrare complesso a un non matematico, in realtà è piuttosto semplice e standard. I matematici hanno usato modelli simili (e persino più complessi) per decenni.
Per riassumere, l'ipotesi della signora Isaacson è corretta. Anche se 65 dei suoi 66 studenti hanno ottenuto buoni risultati nel test di stato, avrebbero ottenuto lo stesso punteggio anche se un cane fosse stato il loro insegnante. Un buon insegnante reale consentirebbe a questi studenti di ottenere punteggi non semplicemente "competenti", ma in realtà "buoni" nello stesso test.
A questo punto potrei citare alcune delle mie preoccupazioni con il modello. Ad esempio, gli sviluppatori del modello sostengono che affronta alcune delle difficoltà con la valutazione della qualità dell'insegnamento. Ho abbastanza motivi per crederci? I quartieri con popolazione a basso reddito avranno punteggi attesi "distrettuali" e "scolastici" inferiori. Supponiamo che un quartiere abbia un punteggio previsto di 2,5. Un insegnante che raggiungerà una media di 3 otterrà una buona valutazione. Ciò può indurre gli insegnanti a puntare sul punteggio di 3, piuttosto che su un punteggio di, diciamo, 4 o 5. In altre parole, gli insegnanti mireranno alla mediocrità piuttosto che alla perfezione. Vogliamo che questo accada? Infine, anche se il modello è matematicamente semplice, funziona in un modo molto diverso da come funziona l'intuizione umana. Di conseguenza, non abbiamo modo ovvio di convalidare o contestare il modello " decisione di s. Lo sfortunato esempio della sig.ra Isaacson illustra a cosa ciò può portare. Vogliamo dipendere ciecamente dal computer in qualcosa di così importante?
Nota che questa è una spiegazione per un laico. Ho evitato diverse questioni potenzialmente controverse qui. Ad esempio, non volevo dire che i distretti scolastici con dati demografici a basso reddito dovrebbero avere prestazioni più povere, perché questo non suona bene a un laico.
Inoltre, ho ipotizzato che l'obiettivo sia effettivamente quello di fornire una descrizione ragionevolmente corretta del modello. Ma sono abbastanza sicuro che questo non era l'obiettivo di New York qui. Quindi almeno una parte del motivo per cui la loro spiegazione è scarsa è FUD intenzionale, secondo me.