Gouvernance de l’IA pour les conseils d’administration des organisations à but non lucratif
L’intelligence artificielle (IA) transforme la manière dont les conseils d’administration des organisations à but non lucratif fonctionnent. À mesure que la technologie progresse, les conseils doivent prendre en compte des considérations qui vont au-delà de la simple supervision informatique, touchant aux devoirs fiduciaires et à la gouvernance éthique.
Les publications de premier plan du secteur, telles que Nonprofit Quarterly (NPQ), soulignent que la gouvernance de l’IA est désormais une responsabilité fondamentale des conseils d’administration. Ces sources affirment que le rôle d’un conseil doit s’élargir pour aider la technologie IA à servir la mission et éviter de potentiellement la compromettre. Cette nouvelle responsabilité élargit le focus au-delà de l’efficacité opérationnelle pour inclure l’alignement sur la mission, le leadership éthique et l’équité systémique.
Élargissement des responsabilités du conseil
Il est important de noter que les attentes ne concernent pas tant l’implication des membres du conseil dans les initiatives technologiques quotidiennes, mais plutôt leur rôle en tant que conseillers dans la création de politiques et de procédures qui aident les dirigeants de l’organisation. L’orientation du conseil peut habiliter les dirigeants à mettre en œuvre et gérer l’IA de manière efficace.
Pour atteindre cet objectif, les membres du conseil doivent éviter le « piège de l’efficacité », une tendance à prioriser la réduction des coûts au détriment de l’impact sur la mission, et soutenir la direction dans l’identification des moyens de se prémunir contre les angles morts algorithmiques, où des biais cachés dans les systèmes automatisés peuvent influencer les résultats pour les bénéficiaires. Cet article explore les étapes pratiques que les conseils peuvent suivre pour fournir une direction claire en matière de gouvernance tout en permettant aux dirigeants de gérer l’IA de manière responsable.
Étapes pratiques pour une gouvernance efficace de l’IA
Les devoirs traditionnels d’un conseil, tels que le Devoir de soin, la Loyauté et l’Obéissance, doivent désormais inclure la supervision technologique. S’appuyant sur les discussions de gouvernance à but non lucratif, voici quelques étapes pratiques pour renforcer la supervision et équiper l’équipe de direction avec des moyens de réduire les risques tout en alignant l’adoption de l’IA sur la mission et les valeurs de l’organisation :
- Mettre la mission avant l’efficacité.
- Résister au piège de l’efficacité en évitant l’adoption de l’IA uniquement pour la rapidité ou les économies de coûts.
- Demander des audits de biais et des tests de stress de l’équité pour prévenir l’exclusion des communautés marginalisées.
- Utiliser un cadre de responsabilité en matière d’IA, tel que le NIST AI Risk Management Framework, pour identifier les garde-fous liés à la vie privée, au consentement et à l’équité.
Combler les lacunes en matière de connaissances sur l’IA
L’IA ne doit pas être gérée depuis les coulisses. Pour aider à construire des connaissances, la confiance et l’alignement, les organisations peuvent :
- Former le conseil en recrutant des membres ayant une expérience en technologie ou en gouvernance des données.
- Faire de la responsabilité des fournisseurs une exigence en posant des questions claires sur les modèles utilisés et leur formation.
Intégrer les risques liés à l’IA dans la gouvernance et la stratégie
Les risques liés à l’IA, y compris les violations de données, les hallucinations et les biais, doivent être intégrés dans les processus de gestion des risques de l’entreprise. Les organisations sont encouragées à établir des protocoles d’escalade clairs pour les violations éthiques et à s’assurer que les polices d’assurance cybernétique couvrent les incidents liés à l’IA.
Checklist de gouvernance de l’IA pour les conseils d’administration
- Les initiatives d’IA sont-elles alignées sur la mission, les objectifs et les résultats mesurables ?
- La direction a-t-elle traduit les politiques d’IA du conseil en procédures claires et en directives pour le personnel ?
- L’organisation dispose-t-elle d’un cadre de responsabilité en matière d’IA, de normes pour les fournisseurs et d’une politique d’utilisation acceptable de l’IA ?
- Des audits réguliers pour le biais, la fiabilité et la performance globale du modèle sont-ils effectués ?
- Les logiciels d’entreprise soutiennent-ils la transparence, la conformité et la gouvernance responsable de l’IA ?
- L’utilisation de l’IA est-elle communiquée ouvertement aux donateurs, bénéficiaires et partenaires ?
- Le personnel a-t-il des rôles et des responsabilités définis pour les décisions ou incidents liés à l’IA ?
- Une formation est-elle disponible pour le personnel au fur et à mesure de l’évolution des outils d’IA ?
Conclusion
La gouvernance de l’IA est désormais une responsabilité fondamentalement fiduciaire. Les conseils qui posent des questions stratégiques et défendent des cadres et des outils éthiques peuvent aider les dirigeants des organismes à but non lucratif à positionner l’IA comme un moteur d’impact missionnel plutôt que comme une source de défis non contrôlés.
Les conseils qui adoptent une gouvernance éthique de l’IA aujourd’hui peuvent façonner la confiance du secteur à but non lucratif demain.
