Utiliser l’IA pour améliorer la sécurité : gérer les risques juridiques aux côtés des avantages
L’intelligence artificielle (IA) devient un outil puissant dans les programmes de sécurité au travail, mais son utilisation soulève également des questions juridiques et de gouvernance complexes. Cet article examine comment les employeurs peuvent intégrer l’IA dans la prise de décision en matière de sécurité tout en préservant le jugement humain, en respectant les obligations réglementaires et en gérant les risques d’application et de litige.
Adoption croissante de l’IA dans les entreprises
Les entreprises, tant dans l’industrie générale que dans la construction, adoptent de plus en plus l’IA pour améliorer la performance en matière de sécurité. De l’analyse des rapports de quasi-accidents et des dangers au travail à la génération de briefings de sécurité spécifiques au site, les outils d’IA promettent d’aider les entreprises à identifier les dangers plus tôt et à allouer les ressources plus efficacement.
Cependant, l’IA introduit de nouveaux risques juridiques souvent sous-estimés. Étant donné que la sécurité se situe à l’intersection de la conformité réglementaire, de la responsabilité délictuelle, de la gestion de la main-d’œuvre et de la gouvernance technologique, l’utilisation de l’IA en matière de sécurité peut compliquer les profils de risque traditionnels si une entreprise ne gère pas son utilisation avec soin.
Clarification des rôles et responsabilités
Selon la loi fédérale sur la sécurité et la santé au travail de 1970 (OSH Act), un principe juridique fondamental est que les employeurs ont la responsabilité de protéger les employés des dangers reconnus. Cette obligation ne peut être déléguée aux fournisseurs de technologie ni remplacée par des outils automatisés. Les systèmes d’IA de plus en plus utilisés dans les programmes de sécurité sont mieux compris comme des outils d’aide à la décision, et non comme des décideurs.
Le risque émerge lorsque les organisations traitent les résultats de l’IA comme des directives plutôt que comme des données à analyser. Par exemple, certains systèmes de sécurité basés sur la vision génèrent des centaines d’alertes pour non-conformité aux EPI ou proximité avec des dangers durant un seul quart de travail. Si les superviseurs s’appuient uniquement sur les alertes du système sans exercer leur jugement sur la gravité, le contexte ou la faisabilité des mesures correctives, des risques critiques peuvent être obscurcis par le volume.
Risques juridiques clés dans les programmes de sécurité activés par l’IA
Devoir de diligence et risque de prévisibilité
En général, les entreprises ont un devoir de diligence envers les travailleurs, les sous-traitants, les visiteurs du site et, dans certaines circonstances, le public. Ce devoir exige généralement des entreprises qu’elles exercent le soin nécessaire pour prévenir les dommages prévisibles. L’échec à identifier ou à traiter les risques prévisibles peut exposer une entreprise à la responsabilité, y compris des réclamations délictuelles.
Les outils de sécurité activés par l’IA offrent une visibilité sans précédent sur les dangers au travail, mais plus de données ne se traduit pas automatiquement par des résultats plus sûrs. En pratique, les organisations peuvent faire face à un phénomène souvent décrit comme “la mort par données”, où les systèmes d’IA identifient tant de dangers qu’il devient impossible pour les professionnels de la sécurité de prioriser ou de répondre de manière significative.
Risques de réglementation et de conformité
Au-delà des obligations légales, l’OSH Act exige que les employeurs garantissent la sécurité de leurs employés. Ces obligations sont non déléguées et restent avec l’employeur, quelle que soit l’outil utilisé pour soutenir la conformité. Bien que l’IA n’offre aucun refuge réglementaire, elle peut aider les entreprises à atteindre de meilleurs résultats en matière de sécurité.
Conclusion
L’IA offre des outils puissants pour améliorer la sécurité au travail, mais son utilisation redéfinit le paysage juridique de manière à nécessiter une gouvernance et une supervision délibérées. Les entreprises qui déploient l’IA de manière réfléchie, préservant le jugement humain et documentant la prise de décision, peuvent améliorer les résultats de sécurité sans augmenter l’exposition juridique.
