Perché l’IA pone una questione etica alla scuola
L’intelligenza artificiale, in particolare nelle sue forme generative e predittive (GenIA), sta trasformando profondamente il contesto educativo, sollevando interrogativi che vanno oltre la semplice competenza tecnica. Parlare di etica non significa elencare divieti o imporre regole astratte, ma educare alla ricerca di senso, alla valutazionedelle scelte operate con il supporto della GenIAe alla consapevolezza dell’impatto che i sistemi di intelligenza artificiale esercitano sul modo di pensare, di apprendere e di interpretare la realtà.
Le questioni etiche legate all’uso dell’IA a scuola sono molteplici e complesse:
- Povertà digitale e disuguaglianze: La GenIA, sviluppata principalmente da grandi aziende tecnologiche del Nord del mondo, rischia di aggravare il divario digitale ed escludere comunità povere di dati, perpetuando valori e norme culturali dominanti.
- Uso non autorizzato di contenuti: I modelli GenIA vengono addestrati su enormi quantità di dati raccolti anche senza un consenso esplicito, sollevando questioni legate alla proprietà intellettuale e alla violazione del diritto all’oblio.
- Opacità dei sistemi: Le reti neurali artificiali operano come “scatole nere” non trasparenti, rendendo impossibile spiegare come vengono generati gli output e alimentando sfiducia negli strumenti.
- Inquinamento informativo: Contenuti generati dall’IA, spesso contenenti errori e bias, si diffondono su Internet contaminando le fonti di conoscenza, rafforzando informazioni ricorrenti ma non adeguatamente verificate e creando rischi per chi non possiede solide conoscenze pregresse.
- Mancanza di comprensione reale: I sistemi GenIA non comprendono il significato di ciò che generano ma replicano pattern statistici, producendo testi apparentemente convincenti ma potenzialmente inaccurati (“allucinazioni”).
- Riduzione del pluralismo: L’IA tende a riprodurre opinioni dominanti marginalizzando ulteriormente voci minoritarie e limitando la diversità di pensiero.
- Deepfake e manipolazione: La GenIA facilita la creazione di contenuti falsi difficilmente distinguibili da quelli autentici, alimentando disinformazione e forme di comunicazione negative.
La riflessione che segue approfondisce quattro aspetti che ritengo fondamentali per un’integrazione consapevole dell’IA nella pratica educativa: l’approccio centrato sull’umano, lo sviluppo del pensiero critico, la trasparenza nell’uso degli strumenti e il ruolo centrale del docente come mediatore culturale. Attraverso queste prospettive, la scuola può trasformare l’intelligenza artificiale in un’occasione di crescita critica, mantenendo al centro la responsabilità educativa e la relazione umana.
Apprendimento cooperativo e pensiero critico
Perché l’apprendimento cooperativo rappresenta una risposta pedagogica particolarmente efficace all’uso dell’intelligenza artificiale a scuola? Il lavoro in gruppo, quando progettato in modo intenzionale – v. C.Matinihttps://scintille.it/perche-il-cooperative-learning-e-diverso-dal-lavoro-di-gruppo/, consente agli studenti di confrontare punti di vista, discutere le risposte generate dall’IA, individuare errori o semplificazioni e costruire significati condivisi.
La dimensione cooperativa riduce il rischio di un uso passivo e delegante dell’intelligenza artificiale e favorisce lo sviluppo del pensiero critico e della capacità argomentativa. Attraverso il dialogo, gli studenti imparano a valutare le informazioni, a verificarne l’affidabilità e a riconoscere i limiti degli strumenti digitali, trasformando le criticità dell’IA in occasioni formative.
Uso etico dell’IA e ruolo del docente
Educare all’uso etico della GenIA significa aiutare gli studenti a porsi domande autentiche: perché sto usando questo strumento? In che modo modifica il mio modo di ragionare? Le risposte che ottengo sono affidabili?
Il ruolo del docente è centrale. L’insegnante non è chiamato a essere un esperto tecnico, ma un mediatore culturale capace di orientare l’uso dei sistemi di intelligenza artificiale entro cornici di senso chiare. Attraverso la progettazione didattica e la guida alla riflessione, aiuta gli studenti a non assumere in modo acritico le risposte automatiche, ma a interrogarle e discuterle.
Metariflessione e consapevolezza dei processi
L’uso educativo dei sistemi di intelligenza artificiale richiede una costante metariflessione sui processi di apprendimento che essi attivano o modificano. Il lavoro cooperativo offre un contesto privilegiato per sviluppare questa consapevolezza: mentre gli studenti collaborano, sono chiamati anche a riflettere su come stanno pensando e su come lo strumento influisce sulle decisioni del gruppo.
Un uso etico dell’intelligenza artificiale richiede anche trasparenza: rendere esplicito quando, come e perché uno strumento di IA viene utilizzato, affinché il suo intervento non resti opaco ma diventi oggetto di riflessione condivisa.
Confrontare le risposte dell’IA con quelle costruite insieme, spiegare con parole proprie un contenuto generato automaticamente o decidere quando è opportuno usare lo strumento e quando farne a meno aiuta a sviluppare autonomia, senso critico e responsabilità.
Presenza e relazione come fondamento etico
La riflessione etica sull’intelligenza artificiale conduce inevitabilmente a interrogarsi su ciò che nessuna tecnologia può sostituire: la presenza e la relazione educativa. In un contesto di iperconnessione costante, la presenza fisica e relazionale diventa un bene sempre più prezioso.
La relazione educativa attiva dimensioni cognitive ed emotive che nessun sistema artificiale è in grado di replicare. Sentirsi visti, ascoltati e riconosciuti all’interno di una comunità educativa è un fattore decisivo per il benessere e l’inclusione.
Riconoscere la centralità della presenza non significa rifiutare l’intelligenza artificiale, ma mantenere un equilibrio consapevole. L’intelligenza artificiale può supportare il lavoro didattico attraverso funzioni di generazione, suggerimento e organizzazione, ma non può sostituire lo sguardo, l’ascolto e la costruzione di un clima di fiducia.
Custodire la relazione educativa diventa quindi una responsabilità etica fondamentale: proteggere tempi lenti, valorizzare il dialogo diretto ed evitare la delega emotiva alla tecnologia. Sentirsi visti, ascoltati e riconosciuti all’interno di una comunità educativa rappresenta un fattore decisivo per il benessere degli studenti, per l’inclusione e per il contrasto alla dispersione scolastica.
Conclusione. Essere docenti nell’era dell’intelligenza artificiale
L’IA pone alla scuola una questione che non è innanzitutto tecnica, ma educativa. Il suo ingresso nei contesti di apprendimento interroga il modo in cui si costruisce conoscenza, si esercita il pensiero critico e si assumono decisioni responsabili. Per questo l’IA non può essere trattata come un semplice strumento in più, ma come un oggetto di riflessione pedagogica intenzionale.
Educare nell’era dell’IA significa aiutare gli studenti a comprendere come funzionano questi sistemi, quali effetti producono sui processi cognitivi e quali limiti presentano. Significa soprattutto evitare la delega automatica, promuovendo pratiche cooperative e momenti di metariflessione che rendano visibili i processi di pensiero e le scelte compiute nell’interazione con l’IA.
In questo quadro, il ruolo del docente non si riduce, ma si ridefinisce. L’insegnante diventa garante del senso educativo dell’uso dell’IA: orienta, pone domande, guida il confronto critico e crea le condizioni perché la tecnologia non sostituisca il pensiero, ma lo solleciti. È nella relazione educativa, fondata sulla presenza, sull’ascolto e sul dialogo, che l’IA trova un uso eticamente sostenibile.
La sfida non è scegliere tra umanità e tecnologia, ma costruire un equilibrio consapevole che mantenga centrale la dimensione umana dell’educazione. In questo equilibrio si gioca oggi una responsabilità fondamentale della scuola: formare soggetti capaci di usare l’intelligenza artificiale in modo critico, intenzionale e responsabile, senza rinunciare alla profondità del pensiero e al valore della relazione.
UNESCO
UNESCO. (2023). Linee guida per l’Intelligenza Artificiale generativa nell’istruzione e nella ricerca (traduzione italiana). https://stelliniudine.edu.it/wp-content/uploads/sites/724/4.-Linee-guida-AI-Unesco-ita.pdf
UNESCO. (2021). Recommendation on the Ethics of Artificial Intelligence. https://www.unesco.org/en/artificial-intelligence/recommendation-ethics
UNESCO. (2023). Guidance for Generative AI in Education and Research. https://www.unesco.org/en/digital-education/ai-future-learning
UNESCO. AI Competency Framework for Teachers. https://www.unesco.org/en/digital-education/ai-competency-framework-teachers
OECD (Organisation for Economic Co-operation and Development)
OECD. (2023). Digital Education Outlook 2023: Towards an Effective Digital Education Ecosystem. https://www.oecd.org/en/publications/2023/12/oecd-digital-education-outlook-2023_ab3cac5e.html
OECD-European Commission. (2025). AI Literacy Framework for Primary and Secondary Education. (Bozza) https://ailiteracyframework.org/wp-content/uploads/2025/05/AILitFramework_ReviewDraft.pdf?utm_source=chatgpt.com
Commissione Europea
Commissione Europea. (2022). Orientamenti etici per gli educatori sull’uso dell’intelligenza artificiale (IA) e dei dati nell’insegnamento e nell’apprendimento (traduzione italiana). https://op.europa.eu/it/publication-detail/-/publication/d81a0d54-5348-11ed-92ed-01aa75ed71a1
Ministero dell’Istruzione e del Merito (Italia)
Ministero dell’Istruzione e del Merito. (2025). Linee guida per l’introduzione dell’Intelligenza Artificiale nelle scuole. [V. in particolare il cap.4] https://www.mim.gov.it/documents/20182/0/MIM_Linee+guida+IA+nella+Scuola_09_08_2025-signed.pdf
Council of Europe
Council of Europe. (2022). Artificial Intelligence and Education: A Critical View Through the Lens of Human Rights, Democracy and the Rule of Law. https://rm.coe.int/artificial-intelligence-and-education-a-critical-view-through-the-lens/1680a886bd







