Audition de la Chambre : Est-ce le bon moment pour réglementer l’IA dans les écoles ?
Lors d’une audition tenue par la Commission de l’Éducation et de la Main-d’œuvre, les législateurs de la Chambre ont exprimé des préoccupations bipartites concernant les risques associés à l’utilisation de l’intelligence artificielle par les étudiants. Ces préoccupations vont de la dépendance excessive à la technologie à la sécurité des données des étudiants.
Débat sur la réglementation de l’IA
La question de savoir si et comment l’IA doit être réglementée dans les salles de classe K-12 au niveau fédéral continue d’alimenter le débat. Les démocrates présents à l’audition ont affirmé que des mesures de protection supplémentaires étaient nécessaires, tandis que l’administration Trump a compliqué l’ajout de telles mesures par des décrets exécutifs visant à bloquer les réglementations au niveau des États.
Les républicains, en revanche, ont mis en garde contre une précipitation dans l’instauration de nouvelles réglementations sur l’IA, afin de ne pas freiner l’innovation dans le domaine de l’éducation et de l’emploi.
Contexte politique
L’audition de la Chambre, la première d’une série, est survenue un mois après que le président Donald Trump a signé un décret appelant à la préemption des lois des États régissant l’IA, à l’exception des protections pour la sécurité des enfants.
Le membre du Congrès Bobby Scott a souligné que le Congrès ne devrait pas rester les bras croisés pendant que l’administration Trump “s’implique auprès des PDG des grandes entreprises technologiques”, empêchant les États de protéger les Américains contre les dangers de l’IA. Il a insisté sur le fait que le Congrès devrait jouer un rôle actif dans le développement de réglementations réfléchies pour “équilibrer la protection des étudiants, des travailleurs et des familles” tout en favorisant la croissance économique.
Impact de l’administration actuelle sur l’éducation
Scott a également mentionné que la capacité d’étudier et de réglementer les impacts de l’IA sur l’éducation a été entravée par l’administration Trump, notamment par la fermeture du Bureau de la Technologie Éducative du ministère de l’Éducation, des coupes dans le financement de l’Institut des Sciences de l’Éducation, et des tentatives de réduire considérablement le personnel du Bureau des Droits Civiques.
En même temps, l’administration Trump encourage fortement les écoles à intégrer des outils d’IA dans la salle de classe.
Appel à la transparence
Des témoins de l’audition ont également appelé à plus de transparence et de mesures de protection pour les entreprises de technologie éducative qui déploient des outils d’IA pour les étudiants. Les produits de technologie éducative manquent souvent de transparence concernant leurs modèles d’IA, ce qui complique la prise de décision éclairée pour les enseignants et les administrateurs scolaires.
Alexandra Reeve Givens, présidente et CEO du Center for Democracy & Technology, a souligné que les entreprises doivent répondre à des questions cruciales concernant la science de l’apprentissage et les tests de biais de leurs outils.
Normes et protections pour les outils d’IA
Adeel Khan, fondateur et CEO de MagicSchool AI, a également plaidé en faveur de normes partagées et de protections pour les outils d’IA en classe, afin de protéger les étudiants et de comprendre lesquels fonctionnent réellement.
Bien que la politique éducative en matière d’IA soit principalement guidée par des initiatives au niveau des États et des collectivités, Khan a déclaré que “le rôle fédéral le plus constructif est de soutenir la capacité et la protection des enfants tout en investissant dans la formation des éducateurs et des fonds pour permettre aux districts d’adopter ces outils de manière responsable.”
Recommandations de l’Institut Brookings
L’Institut Brookings a également publié un rapport sur l’IA dans les écoles K-12, basé sur l’analyse de plus de 400 articles de recherche et de centaines d’entretiens avec des acteurs de l’éducation. Le rapport avertit que les risques de l’IA l’emportent actuellement sur ses avantages pour les étudiants.
Pour atténuer ces risques, Brookings recommande un cadre pour les écoles K-12 alors qu’elles continuent à mettre en œuvre l’IA :
- Former les enseignants et les étudiants sur l’utilisation de l’IA, tant avec que sans.
- Utiliser la technologie avec des pratiques basées sur des preuves qui favorisent un apprentissage approfondi.
- Développer une littératie AI holistique pour comprendre les capacités et les implications de l’IA.
- Veiller à ce que les éducateurs reçoivent une formation professionnelle robuste pour utiliser l’IA.
- Établir des plans clairs pour une utilisation éthique de la technologie tout en élargissant l’accès équitable à ces outils dans les communautés scolaires.
Enfin, les entreprises technologiques, les gouvernements, les systèmes éducatifs, les enseignants et les parents doivent promouvoir un design éthique et de confiance dans les outils d’IA, ainsi que des cadres réglementaires responsables pour protéger les étudiants.
