Avenir audacieux de Workday avec une IA agentique responsable
Dans cet article, nous abordons :
- Se concentrer à la fois sur la technologie et les personnes
- S’orienter vers l’avenir, tout en respectant nos valeurs fondamentales
Alors que l’IA entre dans sa prochaine évolution—les agents—le cadre de gouvernance de l’IA responsable (RAI) de Workday continue de guider les décisions de l’entreprise concernant le développement des produits. Les agents IA, qui sont des systèmes conçus pour traduire l’intention des utilisateurs en actions coordonnées, ouvrent un monde de potentiel sur le lieu de travail. Avec ces nouvelles capacités, de nouvelles considérations en matière d’IA responsable émergent.
Nous croyons qu’une véritable innovation signifie apporter une valeur réelle et positive à nos clients tout en évitant les préjudices, c’est pourquoi l’engagement de Workday envers une IA éthique et responsable est plus crucial que jamais. Tout cela revient à nos valeurs fondamentales—Intégrité et Innovation. Ces mêmes principes d’éthique de l’IA servent de étoile polaire, guidant chaque décision que nous prenons pour garantir que l’IA que nous construisons est digne de confiance. L’IA responsable n’est pas un ajout pour nous ; elle est au cœur de notre stratégie.
Se concentrer à la fois sur la technologie et les personnes
Chez Workday, notre approche de l’IA responsable est holistique—ce que nous appelons sociotechnique. Cela signifie que nous examinons l’ensemble du tableau : non seulement la technologie sous le capot, mais aussi comment de vraies personnes l’utilisent dans de véritables environnements de travail. Nous concevons nos gardes-fous autour de la manière dont l’IA interagit avec les équipes, les processus et l’ensemble de l’organisation. L’IA agentique introduit une nouvelle dynamique, passant de l’assistance à l’action autonome, c’est pourquoi nous adaptons notre cadre existant et flexible pour évoluer avec les nouveaux risques et capacités.
Considérations techniques
L’IA agentique marque un tournant technique majeur. Pour la gouverner, nous nous concentrons sur trois domaines centraux—des risques qui sont également au cœur des réglementations émergentes comme la Loi sur l’IA de l’UE :
- Autonomie : Nous sommes délibérés quant aux actions que les agents peuvent entreprendre par eux-mêmes. Nous priorisons les droits humains et la sécurité, en veillant à ce que des décisions conséquentes, comme le recrutement, restent toujours entre les mains des humains et ne soient jamais automatisées.
- Transparence : Les actions des agents doivent être visibles et traçables. Une piste de vérification est essentielle pour que les clients et les développeurs puissent reconstruire le comportement, repérer des actions mal alignées et garantir la responsabilité et la conformité.
- Sécurité : Les agents ayant accès à des outils d’entreprise peuvent poser des risques de sécurité. Pour limiter les dommages et protéger la confiance, les agents fonctionnent sur un modèle de minimum de privilèges, héritant uniquement des permissions existantes de l’utilisateur humain.
Considérations sociales
Les gardes-fous techniques ne représentent que la moitié de l’histoire. L’autre moitié concerne les humains. Lorsque les organisations adoptent des solutions d’IA agentique, nous devons repenser comment cela peut impacter les personnes, y compris la manière dont leur travail évolue. De nouveaux risques émergent lorsque les humains et les agents commencent à collaborer. C’est pourquoi le côté social de notre gouvernance se concentre sur trois domaines clés :
- Responsabilité : Il est important d’être clair sur qui est responsable de quoi. Nous veillons à ce que les humains restent en contrôle des décisions conséquentes, mais les utilisateurs doivent également comprendre leur rôle dans la compréhension et la supervision de la technologie.
- Évaluations : Nous évaluons au-delà de la simple qualité de sortie. Nous testons le comportement des agents : comment les agents interprètent les instructions, prennent des décisions et réagissent lorsque les choses tournent mal. Cela nécessite des évaluations continues et basées sur des scénarios en fonction du niveau d’autonomie de l’agent.
- Gestion du changement : Nous croyons en l’accompagnement de nos employés tout au long du parcours de l’IA pour garantir une transition en douceur et établir la confiance. Nous progressons avec des valeurs centrées sur l’humain et des gardes-fous de sécurité clairs pour que les employés comprennent à la fois le pourquoi et le comment d’un partenariat réussi avec l’IA.
S’orienter vers l’avenir, tout en respectant nos valeurs fondamentales
Workday s’engage à construire des agents IA responsables et dignes de confiance, ancrés dans nos valeurs fondamentales et nos principes éthiques. Cela est possible grâce à notre solide cadre de gouvernance, conçu intentionnellement pour l’agilité, permettant à nos principes fondamentaux de s’étendre naturellement et en toute confiance au domaine agentique. À mesure que la technologie, la politique et les réglementations continuent d’évoluer, nous sommes sur un terrain solide et n’avons pas à repenser fondamentalement notre approche. En restant fidèles à l’intégrité et à l’innovation, nous sommes convaincus que notre approche principielle de l’IA agentique débloquera un potentiel significatif et contribuera à transformer le monde du travail pour le mieux.
