Quando l’algoritmo entra in aula: imparare di più o capire meglio?
L’intelligenza artificiale ha ormai oltrepassato la soglia delle scuole. Non più come suggestione futuristica, ma come presenza concreta, capace di incidere sui risultati, sui carichi di lavoro degli insegnanti e, soprattutto, sul modo in cui si costruisce il sapere. La questione non è più se l’IA debba stare in classe, ma che funzione debba svolgere: supporto all’apprendimento o scorciatoia che ne indebolisce le basi.
In questo scenario prende forma un confronto sempre più urgente, che riguarda non solo la didattica ma la qualità stessa dell’intelligenza che stiamo coltivando nelle nuove generazioni. È particolarmente interessante l’articolo pubblicato su Il Sole 24 Ore, firmato da Luca Tremolada, dal titolo “L’Ai va in classe e fa volare i voti in matematica. Ma senza algoritmo l’apprendimento crolla”, che prende spunto dallo studio Digital Education Outlook 2026 dell’Ocse.
Uno dei dati più sorprendenti riguarda un esperimento in cui l’accesso all’IA generativa ha prodotto un aumento significativo delle prestazioni: “l’accesso a strumenti di intelligenza artificiale generativa ha fatto schizzare le prestazioni in matematica degli studenti di circa il 48%”. Tuttavia, quando l’assistente digitale viene rimosso, il risultato si ribalta: “il rendimento è crollato: –17%”. Una dinamica che lo stesso articolo definisce senza esitazioni “un effetto doping cognitivo”.
L’immagine è chiara: l’IA sostiene la fase iniziale, ma se diventa permanente finisce per ostacolare l’autonomia.
Il nodo cruciale risiede nella differenza tra ottenere buone performance e sviluppare una comprensione profonda. Come sottolinea l’articolo, “fare meglio non significa imparare di più”. L’IA è estremamente efficace nel migliorare la resa nel breve periodo: suggerisce passaggi, risolve esercizi, organizza risposte. Diventa, di fatto, “una calcolatrice universale del pensiero”.
Conta come usiamo l’algoritmo
Ma quando lo strumento prende il posto dello sforzo mentale invece di stimolarlo, il rischio è evidente: “L’IA ha fatto il lavoro. Il cervello no”. È una distinzione che va oltre l’ambito scolastico e riguarda il modo in cui affrontiamo la complessità nella vita quotidiana: delegare non coincide sempre con apprendere.
Eppure, lo studio Ocse non assume una posizione ostile verso la tecnologia. Al contrario, mostra come la progettazione educativa dell’IA possa cambiare radicalmente gli esiti. Quando l’algoritmo è pensato per accompagnare il ragionamento, porre domande, rallentare i tempi e favorire l’elaborazione, i risultati mutano sensibilmente: “una versione ‘didattica’ dell’IA […] ha migliorato le prestazioni del 127%”, senza gli effetti di dipendenza osservati in precedenza.
Il messaggio è esplicito: “conta come usi l’algoritmo, non solo se lo usi”.
Un altro passaggio centrale riguarda il lavoro dei docenti. In alcuni contesti, come nel Regno Unito, l’uso dell’IA ha permesso di ridurre del “31% il tempo speso […] per preparare lezioni e materiali”. In altri casi, tutor con minore esperienza, supportati da sistemi intelligenti, hanno migliorato in modo significativo i risultati degli studenti. In questa prospettiva l’IA assume il ruolo di potenziatore delle capacità umane, una sorta di esoscheletro che alleggerisce il peso delle attività ripetitive. Ma anche su questo fronte emerge un limite da non oltrepassare. Come ricorda l’articolo, “correggere, valutare, progettare non sono solo funzioni tecniche”. Sono pratiche che costruiscono competenza, sensibilità educativa e responsabilità professionale.
Il cuore della questione è culturale prima ancora che tecnologico.
La scuola, nata per trasmettere saperi, oggi opera in un contesto di sovrabbondanza informativa. Come osserva l’articolo, “la vera posta in gioco non è se vietare o autorizzare ChatGPT in classe”, ma decidere “che tipo di intelligenza vogliamo allenare”. Su questo punto risuonano le riflessioni del professore Luciano Floridi, che da anni invita a pensare l’IA non come sostituto dell’umano, ma come infrastruttura capace di ridefinire le nostre responsabilità cognitive. L’intelligenza, intesa in questo modo, non è solo calcolo ma capacità di attribuire senso, di orientarsi, di comprendere le conseguenze delle proprie azioni.
Anche Edgar Morin, filosofo e sociologo francese, ha più volte richiamato la necessità di un pensiero capace di tenere insieme le parti e il tutto, di educare all’interconnessione invece che alla semplificazione estrema. Un’educazione che si limiti a fornire risposte rapide rischia di disabituare al dubbio, alla lentezza, alla relazione tra le conoscenze. Persino le analisi critiche di Byung-Chul Han, filosofo sudcoreano, sulla società della prestazione trovano qui una forte risonanza: quando tutto deve essere immediato, efficiente, ottimizzato, ciò che viene sacrificato è lo spazio dell’elaborazione interiore.
Un invito per restare costruttivi
L’Ocse invita esplicitamente a politiche pubbliche consapevoli, a regole condivise, a una formazione dei docenti che non sia accessoria ma strutturale. L’IA, come sottolinea l’articolo, “può ridurre le disuguaglianze educative. O ampliarle”. Può adattarsi alle esigenze dei singoli studenti oppure appiattire i percorsi formativi. Tutto dipende dalle decisioni che verranno assunte oggi.
La buona notizia è che non siamo di fronte a un esito già determinato. L’intelligenza artificiale, se progettata e utilizzata con attenzione, può diventare uno strumento potente per rafforzare la capacità di agire, la curiosità e il pensiero critico. Non un rimpiazzo dell’intelligenza umana, ma una compagna di viaggio.
Educare, oggi, significa insegnare a usare gli strumenti senza esserne dominati. Significa aiutare studenti e insegnanti a non rinunciare allo sforzo di comprendere, anche quando una risposta è a portata di clic. In questo equilibrio delicato tra umano e artificiale si gioca una delle sfide più promettenti del nostro tempo. E affrontarla con consapevolezza è già, di per sé, un atto educativo.
- Intelligenze Artificiali “incontrollabili”? - Marzo 5, 2026
- Quando l’algoritmo entra in aula: imparare di più o capire meglio? - Febbraio 19, 2026
- Quando le parole cambiano: linguaggio, intelligenze artificiali e nuove forme di relazioni - Febbraio 5, 2026







