Il rapporto tra intelligenza artificiale e scuola è un tema che ha molto fatto discutere negli ultimi mesi. Software come il celebre Chat GPT rischiano infatti di essere sfruttati in maniera sbagliata dagli studenti e di rendere molto complicata la vita dei docenti. L'Eurocamera ha a questo proposito appena varato delle norme riguardo un utilizzo dell'intelligenza artificiale che non vada a contraddire i valori fondamentali dell'Europa e le sue leggi.
AI Act: Rivoluzione nella normativa dell'intelligenza artificiale
L'impiego dell'intelligenza artificiale a scuola rappresenta, chiaramente, solo una piccola parte degli interrogativi etici che riguardano questa nuova tecnologia. L'Ai Act pubblicato dall'Eurocamera si muove in questo senso, andando di fatto a stabilire dei limiti per l'applicazione dell'intelligenza artificiale. La presidente Roberta Metsola ha parlato di ‘Foundation models' ovvero dei cardini che dovranno regolare le nuove AI per promuoverne un uso funzionale allo sviluppo dell'uomo, prevenendo forme di discriminazione digitale.
Ad esempio lo standard di utilizzo dell'intelligenza artificiale vieterà che venga usata per il ‘Social Scoring' ovvero per la classificazione di comportamenti sociali. Vietati anche algoritmi che possono leggere le emozioni a scuola o a lavoro, i sistemi di polizia predittiva oppure quelli di profilazione basati su dati personali e comportamenti passati. L'Europa è invece divisa sul divieto di utilizzare il riconoscimento biometrico in tempo reale negli spazi pubblici. Questo perché in alcuni casi, come ad esempio la ricerca di persone scomparse o la prevenzione del terrorismo, la tecnologia potrebbe rivelarsi molto utile.
Intelligenza artificiale e scuola: gli utilizzi non rischiosi della tecnologia
L'intenzione dell'Unione Europea è quella di non demonizzare il progresso tecnologico, ma di promuovere applicazioni virtuose dell'intelligenza artificiale. A scuola insomma, non vedremo scomparire i docenti in favore di software, ma sicuramente si andrà incontro a una regolazione. Software di IA generativa, come Chat Gpt o Midjourney, dovranno ad esempio rispettare requisiti di trasparenza più stringenti, dichiarando sempre che il contenuto è stato generato da un AI e non da un essere umano.
In generale, anche gli impieghi autorizzati dell'AI saranno classificati secondo fasce di rischio. Le tecnologie saranno a loro volta disciplinate da regole di sorveglianza umana, specie per quanto riguarda gli ambiti politici, educativi o informativi. L'obiettivo finale è quello di supportare la crescita tecnologica, specie per le PMI che vorranno investire sull'intelligenza artificiale, evitando però derive contrarie alle norme etiche dell'Unione Europea.
Scuola e intelligenza artificiale dovranno quindi trovare il modo di convivere. La sperimentazione didattica darà delle risposte nel tempo. Da quanto deciso finora si può però già dedurre che i software generativi saranno autorizzati solo nel momento in cui la trasparenza sarà garantita, così che i testi prodotti da Chat Gpt siano immediatamente riconoscibili. Chiaro invece il divieto riguardo l'utilizzo dei sistemi di categorizzazione biometrica per la tipizzazione di studenti e docenti.