L'uso dei dati della formazione attraverso nuovi processi come l'apprendimento automatico o l'intelligenza artificiale solleva questioni fondamentali di equità. Queste domande nascono dall'interazione tra dati e algoritmi: gli algoritmi riproducono modelli nei dati esistenti. Questo può portare a gravi distorsioni e mascheramenti (la parola chiave è qui «discriminazione algoritmica»). Per contro, un uso digitale dei dati formativi attentamente progettato può contribuire a ridurre le ineguaglianze, se gli aspetti di responsabilità ed equità vengono presi in considerazione durante la progettazione e lo sviluppo.

Insieme per una politica d'utilizzo dei dati socialmente e pedagogicamente sostenibile

Nell'ambito del progetto di cooperazione «Algorithmic Sorting in Education − Rete e implicazioni» a ricerca dell'ASP di Zurigo e dell'agenzia specializzata Educa esplora unitamente la domanda su che aspetto potrebbe avere una politica d'utilizzo dei dati che tenga conto in maniera adeguata le questioni di giustizia sociale. Ciò include, ad esempio, linee guida per una progettazione socialmente responsabile e sostenibile delle tecnologie digitali per l'educazione. Allo stesso modo la definizione di processi e formati che consentano di monitorare le implicazioni sociali dell'interazione tra algoritmi e dati nella vita scolastica quotidiana.

La collaborazione tra l'ASP di Zurigo e Educa si basa su un progetto di ricerca finanziato dal Fondo nazionale svizzero per il periodo dal 2022 al 2026. Questo progetto investiga a fondo come le logiche e le pratiche didattiche e tecnologiche interagiscono nello sviluppo e nell'uso delle nuove tecnologie per l'educazione. Il progetto esamina pertanto l'interazione tra due campi d'azione che svolgono un ruolo chiave nel lavoro sulla e con l'IA nella formazione scolastica, ma che finora sono stati poco analizzati nelle loro diverse interrelazioni.

«  Le diverse interrelazioni tra la tecnologia e la pedagogia sono state finora analizzate poco.  »

Esplorare le tecnologie per l'educazione basate sull'IA da prospettive diverse

Per chiarire queste interrelazioni, il progetto pone l'accento sulle esperienze, le aspettative e le valutazioni del corpo docente, e delle sviluppatrici e degli sviluppatori. Un primo sotto progetto si concentra sul campo pedagogico, un secondo su quello tecnologico

Nel suo progetto di ricerca Andrea Isabel Frei indaga le attuali condizioni quadro per lo sviluppo di nuove tecnologie per l'educazione basandosi sull'osservazione partecipante e lo studio di casi. La sua tesi di dottorato si concentra sulle start up EdTech e sulle numerose «prove» che devono superare prima di poter lanciare con successo il loro prodotto sul mercato dell'educazione.

Il secondo sotto progetto sposta l'attenzione dallo sviluppo delle tecnologie al loro utilizzo. Mario Steinberg analizza nella sua tesi di dottorato il modo in cui il corpo docente utilizza le tecnologie digitali per l'educazione nella vita scolastica di tutti i giorni per allestire delle situazioni di insegnamento.

Il dialogo come elemento chiave per una politica d'utilizzo dei dati equa

I primi risultati di queste ricerche saranno discussi ed elaborati nei prossimi mesi nel progetto di cooperazione con il programma di sviluppo di una politica d'utilizzo dei dati di Educa. I primi passi «sul campo» forniscono già informazioni importanti per comprendere i possibili effetti negativi indesiderati delle nuove forme di utilizzo algoritmico dei dati.

Diventa molto difficile dare una risposta semplice alla domanda se una tecnologia sia socialmente «equa» o meno. Ciò è dovuto alla moltitudine di attrici e attori coinvolti e ai processi che lasciano il segno nello sviluppo e nell'uso delle tecnologie. È importante capire questa complessità per evitare la discriminazione algoritmica e per garantire in questo modo la realizzazione delle promesse di equità delle nuove tecnologie per l'educazione. Per esempio, come e in quali momenti del processo può e deve avvenire la riflessione didattica e «morale» sugli algoritmi e sui dati? Come può essere organizzata questo genere di riflessione senza causare conflitti con le esigenze quotidiane delle start up?

«  Una moltitudine di attrici e attori come anche di processi lasciano il loro segno nello sviluppo e nell'utilizzo delle tecnologie. È importante capire questa complessità.  »

Comprendere le condizioni quadro per l'innovazione

Per quanto concerne lo sviluppo di nuove tecnologie per l'educazione, è importante comprendere le difficili condizioni quadro in cui vengono sviluppati gli strumenti innovativi. Secondo Andrea Isabel Frei questo diventa evidente quando si è confrontati con i compiti quotidiani che, ad esempio, una start up EdTech deve affrontare. Il percorso che porta dall'idea di un prodotto allo strumento di apprendimento pronto per l'uso quotidiano è caratterizzato da numerose «situazioni di prova». La presentazione a investitrici e investitori o l'acquisizione di clientela in occasione di fiere EdTech o eventi simili ne sono un esempio tipico. Il fattore decisivo per l'elaborazione di una politica d'utilizzo dei dati è che quasi nessuna di queste «prove» è propriamente fondata sulla pedagogia. È necessario perciò riflettere su come incorporare in modo affidabile le preoccupazioni e le competenze didattiche e di politica formativa nei processi di sviluppo delle tecnologie, senza tuttavia bloccare i processi di innovazione. Una politica d'utilizzo dei dati innovativa può fornire un quadro importante a questo scopo.

Un uso didattico significativo richiede delle conoscenze di base

Il lavoro di Mario Steinberg mostra altrettanto chiaramente quanto le reali conseguenze sociali delle tecnologie per l'educazione scolastica dipendano da molte piccole decisioni che le insegnanti e gli insegnanti prendono nel loro lavoro quotidiano. Un uso didattico significativo delle tecnologie per l'educazione necessita una conoscenza su come funzionano, quali dati elaborano e come. Ciononostante manca il più delle volte un'adeguata alfabetizzazione ai dati (e agli algoritmi). Questo può portare a sentimenti di deprofessionalizzazione e a dinamiche di delegazione delle responsabilità. Se l'algoritmo classifica le alunne e gli alunni come «forti» o «deboli», questo non viene messo in discussione se mancano le conoscenze di base per farlo.

Il progetto di cooperazione tra Educa e l'ASP di Zurigo mira a comprendere queste relazioni tra tecnologia e pedagogia, che spesso non sono immediatamente evidenti, e a sensibilizzare attraverso il dialogo le attrici e gli attori coinvolti. Inoltre vuole mostrare come un dialogo simile possa apparire e agire come un elemento duraturo in una politica d'utilizzo dei dati socialmente equa.

Contributo esterno

Prof. Dr. Kenneth Horvath, direttore del dipartimento di ricerca nelle scienze dell'educazione presso l'ASP di Zurigo

Articoli correlati

Le scuole elaborano, memorizzano e gestiscono molti dati (personali) sensibili. Il nostro nuovo dossier «Scuola conforme alla protezione dei dati» sostiene le scuole nella gestione dei dati personali con l'aiuto di strumenti pratici. In questo modo può essere rafforzata la fiducia nelle scuole e migliorata la protezione dei dati.