Quels sont, selon vous, les potentiels et les défis de l'utilisation de l'IA dans les écoles?
Comme toujours lorsque nous utilisons la technologie, l'utilisation de l'IA présente des avantages et des inconvénients. Dans l'idéal, l'IA prend en charge les tâches routinières qui prennent beaucoup de temps et aide les enseignantes et les enseignants à répondre aux besoins individuels de leurs élèves. Par exemple, les systèmes d'apprentissage adaptatifs peuvent être un complément utile pour adapter les offres éducatives aux apprenantes et apprenants individuels.
L'un des risques est de considérer la technologie comme la seule panacée et donc de la surestimer. Si l'on se fie au fait que l'IA est meilleure enseignante, parce que plus objective et plus efficace, il faut reconnaître que les algorithmes font aussi des erreurs et que l'éducation nécessite aussi un travail relationnel humain. Pire encore: celles et ceux qui ne remarquent pas que les élèves plus faibles profitent moins de l'utilisation de l'IA, leur attribuent l'échec à eux seuls. Après tout, on a utilisé les outils les plus récents et ils n'ont quand même pas réussi! Et parfois, les systèmes prennent sans s'en rendre compte des décisions qui désavantagent certains groupes de population («biais algorithmique»). Cela a par exemple été le cas lorsqu'en 2020, un algorithme a été utilisé en Grande-Bretagne pour évaluer les examens de fin d'études. Celles et ceux qui venaient d'une région structurellement faible ont été moins bien notés en moyenne. L'IA avait appris ici que dans les écoles de ces régions, les notes finales étaient effectivement moins bonnes. Cela désavantage toutefois la bonne élève qui obtient son diplôme dans l'une de ces écoles. Ainsi, l'IA renforce les effets d'inégalité indésirables du système éducatif au lieu de les atténuer.
« Cela nécessite des enseignantes et des enseignants qui apportent une compétence fondamentale dans l'utilisation de systèmes basés sur des données tels que les outils d'IA. »
Dans l'ensemble, il faut arriver à une évaluation réaliste du potentiel, des limites et des risques des systèmes techniques. Pour cela, il faut que les enseignantes et les enseignants aient des compétences de base dans l'utilisation de systèmes basés sur les données, comme les outils d'IA. Je pense que cela deviendra à l'avenir une compétence clé importante (et pas seulement) pour le corps enseignant.
Vous avez contribué à l'élaboration des «Lignes directrices éthiques sur l’utilisation de l’intelligence artificielle (IA) et des données dans l’enseignement et l’apprentissage à l’intention des éducateurs» de l'Union européenne, publiées en 2022. Quels sont pour vous les points les plus centraux de ces lignes directrices?
Un groupe de 25 expertes et experts de divers pays européens et de différentes disciplines s'est tout d'abord mis d'accord sur les principes centraux de l'utilisation de l'IA dans l'éducation. Il est rapidement apparu que les êtres humains doivent continuer à être en mesure de prendre des décisions informées, même contre l'IA («priorité à l'action humaine»). L'utilisation de systèmes d'IA doit en outre se faire de manière à ce que les personnes soient traitées équitablement, indépendamment de leur origine, de leur sexe ou d'autres caractéristiques («équité»). L'utilisation de l'IA ne doit pas non plus faire oublier que les relations humaines entre le corps enseignant et les apprenantes et apprenants sont un élément important du processus d'apprentissage («humanité»). Mais pour garantir tout cela, il faut à mon avis avant tout une chose: la transparence.
« Pour garantir l'équité, l'humanité et la priorité de l'action humaine, il faut avant tout une chose: la transparence. »
D'une part, il doit être clair pour toutes les participantes et tous les participants qu'une IA est utilisée dans une situation donnée. D'autre part, les développeuses et les développeurs doivent indiquer avec quels ensembles de données et quels modèles ils travaillent. C'est la seule façon pour moi, en tant que membre du corps enseignant ou direction d'école, d'évaluer si un système répond aux normes éthiques.
Les «Lignes directrices éthiques sur l’utilisation de l’intelligence artificielle (IA) et des données dans l’enseignement et l’apprentissage à l’intention des éducateurs» ont pour but d'aider les enseignantes et enseignants à comprendre le potentiel des applications de l'IA et de l'utilisation des données dans le domaine de l'éducation et de les sensibiliser aux risques éventuels. L’objectif est que le corps enseignant aborde cette technologie de manière positive, critique et éthique et qu’il l’utilise correctement pour exploiter tout son potentiel. Les lignes directrices ont été élaborées par un groupe international d'experts interdisciplinaires et ont été publiées par la Commission européenne en 2022.
Selon vous, qu'est-ce qui a changé depuis?
Lorsque nous avons élaboré les lignes directrices pour les années 2021-2022, les modèles linguistiques tels que ChatGPT n'étaient pas encore un sujet important. Par conséquent, le document ne contient pas d'indications concrètes à ce sujet – par exemple, comment garantir que les élèves reçoivent des tâches utiles qui les motivent à apprendre, même à l'époque de ChatGPT. Les principes mentionnés ci-dessus restent toutefois valables, y compris pour l'utilisation de modèles linguistiques. Là aussi, il faut être juste et pouvoir porter un regard critique sur les dépenses liées aux modèles linguistiques. Cela est particulièrement vrai à une époque où, grâce à ChatGPT & Co. les systèmes d'IA ont fait leur entrée dans les écoles.
Interlocuteur
L'intelligence artificielle (IA) permet déjà beaucoup de choses aujourd'hui – et ce, même si nous n'en sommes qu'au début de son utilisation. Le dossier Educa «l'IA dans la formation» met en lumière certaines des possibilités, des incertitudes et des exigences que cette évolution implique pour le système éducatif.