martedì 9 settembre 2025

Allucinazioni dell’IA e valutazione scolastica: cosa stiamo premiando davvero?

Quando parliamo di allucinazioni dell’Intelligenza Artificiale, nel contesto scolastico potremmo tradurle come risposte sbagliate ma formulate con grande sicurezza, al punto da sembrare plausibili. Non sono semplici errori tecnici, ma il risultato del modo in cui i modelli vengono addestrati e valutati.


La ricerca di Kalai et al. (OpenAI e Georgia Tech, 2025) ci dice che il problema nasce dal sistema di incentivi: i modelli vengono premiati quando “rischiano” una risposta piuttosto che ammettere di non sapere. In pratica, l’IA impara che è meglio bluffare che fermarsi.


Se trasportiamo questo scenario a scuola, il parallelismo è immediato:


  • Per gli studenti
    Gli alunni imparano spesso in base ai sistemi di valutazione. Se un test premia solo la risposta esatta e non valorizza la capacità di dire “non lo so, ma so come cercare la risposta”, si rischia di incentivare l’azzardo e la superficialità. Un compito strutturato solo sul punteggio finale può spingere a indovinare piuttosto che a sviluppare un pensiero critico o la consapevolezza dei propri limiti. L’IA, usata come supporto allo studio, potrebbe rinforzare questa tendenza, fornendo risposte convincenti ma non sempre corrette.
  • Per gli insegnanti
    La questione diventa una sfida pedagogica: come insegnare agli studenti a interrogare criticamente l’IA, distinguendo tra verità e plausibilità? E come ripensare le verifiche e i KPI scolastici? Forse non basta valutare il “risultato giusto” (0 o 1), ma occorre premiare il processo, il ragionamento, la capacità di ammettere l’incertezza e di proporre strategie di ricerca affidabili.
  • Per la scuola nel suo insieme
    L’adozione dell’IA non è neutrale: se importiamo strumenti addestrati a non dire mai “non lo so”, rischiamo di trasmettere implicitamente un messaggio pericoloso alle nuove generazioni — che l’apparenza di sapere valga più dell’onestà intellettuale. In realtà, uno dei compiti più urgenti della scuola sarà insegnare a studenti e docenti a convivere con un’IA che non va “presa per buona”, ma interrogata, verificata e integrata in percorsi di apprendimento critico.