Éthique et Responsabilité dans l’Utilisation de l’IA

À mesure que l’utilisation de l’IA augmente, une mise en œuvre éthique reste cruciale

Bien que l’intelligence artificielle (IA) soit devenue un outil efficace dans la vie quotidienne de nombreux utilisateurs, cette technologie — qui peut reproduire l’expression humaine par quelques clics sur un clavier — a un potentiel immense qui peut être soit incroyablement bénéfique, soit nuisible pour la planète, selon la façon dont elle est régulée et utilisée.

Évolution rapide de l’IA

Avec l’évolution rapide de l’IA et sa transformation du paysage numérique, son adoption dans le domaine académique, les pratiques commerciales et les médias nécessite un examen minutieux pour garantir que les humains ne deviennent pas dépendants de celle-ci pour leur pensée. Une augmentation rapide de l’utilisation normalisée pour la gestion des e-mails, l’analyse de données, les systèmes de chatbots, et bien plus encore, a incité des experts et des professionnels à mettre en place des cadres, des comités et des pratiques éducatives pour encourager une adoption intentionnelle et responsable de la technologie.

Conseil consultatif sur l’IA

Le Dr. Talitha Washington, directrice exécutive du Centre pour la science des données appliquées et l’analyse de l’Université Howard, a déclaré : “Nous ne voulons pas avoir toute une armée de zombies IA, où nous ne faisons que répéter sans réfléchir.” Elle copréside le Conseil consultatif sur l’IA de Howard, lancé en juin 2024 pour conseiller le président de l’université sur la transformation de la technologie dans l’éducation supérieure.

Initiatives mondiales

Pour travailler activement vers un avenir de espaces numériques sûrs et inclusifs, les Nations Unies ont établi son Panel scientifique international indépendant sur l’IA fin 2024 — le premier organisme mondial de ce type. Les membres du panel développeront une compréhension scientifique de la façon dont ces technologies reconstruisent le monde et comment garantir qu’elles bénéficient à l’humanité en favorisant la paix, la sécurité, les droits de l’homme et le développement durable.

Lors de la première réunion de l’entité le 3 mars, le secrétaire général de l’ONU, António Guterres, a exprimé que le travail du panel aidera à renforcer la coordination et l’innovation mondiales. “Le monde a besoin d’une compréhension partagée et mondiale de l’intelligence artificielle, fondée non pas sur l’idéologie, mais sur la science ; non pas sur de fausses informations, mais sur la connaissance,” a-t-il déclaré.

Utilisation responsable de l’IA

L’utilisation responsable de l’IA, avec une compréhension de son impact sur la vie des gens, est un facteur clé pour garantir un avenir équitable et une progression sans heurts vers une ère plus numérique. Un autre facteur qui affecte les systèmes technologiques équitables et leur utilisation est la reconnaissance et la réduction des biais dans l’IA générative.

Tous les grands modèles de langage (LLMs) sont formés avec d’énormes ensembles de données qu’ils utilisent pour traiter le langage et générer du texte. Les transformateurs pré-entraînés génératifs (GPTs), utilisés dans les systèmes d’IA générative comme les chatbots modernes, sont parmi les plus grands et les plus intelligents des LLMs. En raison de la quantité de données nécessaires à leur développement, le risque que des biais cognitifs se retrouvent dans ces modèles est élevé, entraînant des informations ou un langage discriminatoires.

Éducation et sensibilisation

Bien qu’il n’existe pas de solution infaillible pour éliminer les biais dans l’IA, comprendre comment les préjugés peuvent affecter le fonctionnement des algorithmes est une étape cruciale pour réduire leur présence et leurs effets. Une façon de travailler vers ce type de mitigation est d’implémenter une éducation sur les systèmes d’IA et leur coexistence dans le monde sans nuire.

“Plus vous en savez sur cela, mieux vous pouvez l’utiliser, et cela peut être… un outil pour vous-même,” a déclaré un consultant en affaires et artiste qui utilise régulièrement l’IA. “Je pense que l’un des plus grands problèmes est que beaucoup de gens craignent l’IA au lieu de la considérer comme… un avantage.”

Initiatives à Howard University

À Howard, la version gratuite de Copilot de Microsoft, un assistant IA qui aide à augmenter la productivité, est intégrée aux produits et outils Microsoft Office de l’université. Le Conseil consultatif sur l’IA organise également des ateliers pour soutenir l’utilisation du système et montrer aux étudiants son potentiel.

L’université est également sur le point de lancer son certificat fondamentaux de l’IA, destiné à être accessible à tous les étudiants de premier cycle, de cycle supérieur et professionnels. Trois cours ont été approuvés pour faire partie du programme : Introduction aux outils et techniques de l’IA ; IA éthique et responsable ; et l’IA dans les disciplines.

Confiance publique en l’IA

Alors que de nombreux Américains sont méfiants envers l’IA, avec 47 % n’ayant que peu ou pas de confiance dans la technologie selon le Pew Research Center, l’avenir de l’IA devrait inclure la correction de matériel défectueux, la mitigation des implications environnementales négatives et un engagement envers la pensée humaine originale.

“En fin de compte, la pensée critique restera importante,” a déclaré Washington. “Avoir un esprit créatif et être capable de penser en dehors des sentiers battus sera essentiel, et… la pensée originale restera primordiale.”

Scroll to Top