Défis des politiques d’IA dans l’éducation K-12

Quand il s’agit de développer des politiques sur l’IA dans les écoles K-12, les établissements scolaires sont largement laissés à eux-mêmes

La technologie de l’intelligence artificielle générative modifie rapidement l’éducation de manière sans précédent. Avec ses avantages et risques potentiels, les écoles K-12 essaient activement d’adapter l’enseignement et l’apprentissage.

Mais alors que les écoles cherchent à naviguer dans l’ère de l’IA générative, un défi se pose : les écoles opèrent dans un vide politique. Bien que plusieurs États offrent des conseils sur l’IA, seuls quelques-uns exigent que les écoles locales établissent des politiques spécifiques, même si les enseignants, les étudiants et les dirigeants scolaires continuent d’utiliser l’IA générative de manière variée. Comme l’a noté un décideur dans une enquête, « Vous avez la politique et ce qui se passe réellement dans les salles de classe – ce sont deux choses très différentes ».

Actions locales dominent

Bien que les chatbots soient largement disponibles depuis plus de trois ans, l’enquête a révélé que les États sont encore au début de l’élaboration de politiques sur l’IA générative, la plupart n’ayant pas encore mis en œuvre de politiques officielles. Alors que de nombreux États fournissent des conseils ou des outils, ou commencent à rédiger des politiques au niveau de l’État, les décisions locales dominent le paysage, chaque district scolaire étant principalement responsable de l’élaboration de ses propres plans.

Lorsqu’on a demandé si leur État avait mis en œuvre des politiques sur l’IA générative, les répondants ont indiqué qu’il y avait un haut degré d’influence locale, qu’un État ait émis des conseils ou non. « Nous sommes un État de contrôle local, donc certains districts scolaires ont interdit l’IA générative », a écrit un répondant. « Notre département d’éducation a un kit d’outils sur l’IA, mais les politiques sont toutes locales », a écrit un autre.

Les États comme phares

Cependant, la politique d’État peut fournir des conseils vitaux en priorisant l’éthique, l’équité et la sécurité, et en étant adaptable aux besoins changeants. Une politique d’État cohérente peut également répondre à des questions clés, telles que l’utilisation acceptable de l’IA par les étudiants, et garantir des normes de pratique plus cohérentes. Sans une telle direction, les districts sont laissés à eux-mêmes pour identifier les usages appropriés et efficaces et construire des garde-fous.

À l’heure actuelle, l’utilisation de l’IA et l’élaboration de politiques sont inégales, selon les ressources dont dispose une école. Des données d’un panel dirigé par RAND montrent que les enseignants et les directeurs d’écoles en situation de pauvreté élevée sont environ deux fois moins susceptibles de recevoir des conseils sur l’IA. Les écoles les plus pauvres sont également moins susceptibles d’utiliser des outils d’IA.

Principes fondamentaux

Un thème qui a émergé des répondants à l’enquête est la nécessité de mettre l’accent sur les principes éthiques dans la fourniture de conseils sur l’utilisation de la technologie IA dans l’enseignement et l’apprentissage. Cela pourrait commencer par garantir que les étudiants et les enseignants apprennent les limites et les opportunités de l’IA générative, quand et comment tirer parti de ces outils efficacement, évaluer de manière critique ses résultats et divulguer éthiquement son utilisation.

Malgré la confusion entourant l’IA et un paysage politique fragmenté, les décideurs reconnaissent qu’il incombe à chaque école, district et État d’engager leurs communautés et familles pour co-créer un chemin à suivre.

Scroll to Top