Utilisation de l’IA pour améliorer la sécurité : gérer les risques juridiques aux côtés des avantages
L’intelligence artificielle (IA) devient un outil puissant dans les programmes de sécurité au travail, mais son utilisation soulève également des questions juridiques et de gouvernance complexes. Cet article examine comment les employeurs peuvent intégrer l’IA dans la prise de décision en matière de sécurité tout en préservant le jugement humain, en respectant les obligations réglementaires et en gérant les risques d’application et de litige.
L’adoption croissante de l’IA
Les entreprises, tant dans l’industrie générale que dans le secteur de la construction, adoptent de plus en plus l’IA pour améliorer leurs performances en matière de sécurité. De l’analyse des rapports d’incidents aux briefings de sécurité spécifiques à un site, les outils d’IA promettent d’aider les entreprises à identifier les dangers plus tôt et à allouer les ressources plus efficacement.
Les risques juridiques de l’IA
Cependant, l’IA introduit de nouveaux risques juridiques souvent sous-estimés. La sécurité étant à l’intersection de la conformité réglementaire, de la responsabilité délictuelle, de la gestion de la main-d’œuvre et de la gouvernance technologique, son utilisation peut compliquer les profils de risque traditionnels si une entreprise ne gère pas son utilisation avec soin.
Clarification des rôles et responsabilités
Comme le stipule la loi fédérale sur la sécurité et la santé au travail de 1970 (OSH Act), un principe juridique fondamental est que les employeurs ont la responsabilité de protéger les employés contre les dangers reconnus. Cette responsabilité ne peut être déléguée aux fournisseurs de technologie. Les systèmes d’IA utilisés dans les programmes de sécurité doivent être compris comme des outils d’aide à la décision, et non comme des décideurs.
Un risque se présente lorsque les organisations traitent les résultats de l’IA comme des directives plutôt que comme des données à analyser. Par exemple, certains systèmes de sécurité basés sur la vision génèrent des alertes pour non-conformité à l’équipement de protection individuelle (EPI) ou proximité de dangers. Si les superviseurs se fient uniquement aux alertes du système sans exercer leur jugement, des risques critiques peuvent être obscurcis par le volume.
Risques juridiques clés dans les programmes de sécurité assistés par IA
Devoir de diligence et risque de prévisibilité : Les entreprises ont un devoir de diligence envers les travailleurs et le public. L’IA peut identifier, prédire et signaler les dangers, mais sans précautions appropriées, cela peut également augmenter la responsabilité d’une entreprise après un accident.
Les outils de sécurité assistés par IA offrent une visibilité sans précédent sur les dangers du lieu de travail, mais plus de données ne se traduit pas automatiquement par des résultats plus sûrs. Les entreprises peuvent faire face à un phénomène souvent décrit comme “la mort par données”, où trop d’informations empêchent une réponse significative.
Les implications réglementaires et de conformité
En plus du devoir de diligence, l’OSH Act exige que les employeurs garantissent la sécurité de leurs employés. Ces obligations sont non déléguables et demeurent avec l’employeur. Bien que l’IA offre des outils pour améliorer les résultats en matière de sécurité, les sorties doivent être examinées et validées par du personnel formé.
Risques de litige et de découverte
L’intégration de l’IA dans les pratiques de sécurité augmente le volume et la complexité des données, exposant les employeurs à une surveillance accrue après un incident. Les parties plaignantes peuvent demander accès à des données générées par l’IA montrant les risques identifiés et les réponses apportées.
Risques liés à la main-d’œuvre, à la vie privée et au travail
De nombreuses applications de sécurité assistées par IA s’appuient sur des données de main-d’œuvre, telles que des indicateurs de productivité et des métriques de fatigue. Bien que ces données améliorent l’identification des dangers, leur collecte soulève des préoccupations significatives en matière d’emploi et de vie privée.
Conseils pratiques pour les entreprises
- L’IA peut améliorer la sécurité au travail, mais elle ne dilue pas la responsabilité légale d’un employeur.
- Une visibilité accrue des dangers peut augmenter l’exposition juridique si les risques identifiés ne sont pas évalués et traités.
- La gouvernance et la documentation sont essentielles dans l’utilisation des outils d’IA.
- Les insights générés par l’IA doivent informer le jugement professionnel et la prise de décision, sans les remplacer.
Conclusion
L’IA offre des outils puissants pour améliorer la sécurité dans la construction, mais son utilisation nécessite une gouvernance et une supervision délibérées. Les entreprises qui déploient l’IA de manière réfléchie, préservant le jugement humain et documentant les décisions, peuvent améliorer les résultats de sécurité sans accroître l’exposition légale.
