Appel à une législation transversale sur l’IA
Des pairs, des leaders d’entreprise et des experts en politiques appellent à une législation transversale sur l’IA, avertissant que l’approche « attendre et voir » du gouvernement nuit aux entreprises, aux citoyens et à l’économie.
Les entreprises britanniques sont encouragées à adopter rapidement l’IA pour stimuler la productivité et la croissance, mais l’absence de législation axée sur les résultats laisse les conseils d’administration exposés à des risques juridiques, financiers et réputationnels.
Une initiative parlementaire
Lors du lancement d’un nouveau document parlementaire par Lord Holmes de Richmond, il a été souligné que l’approche actuelle du gouvernement en matière de gouvernance de l’IA n’est pas tenable. Lord Holmes a déclaré que le but de ce document était de « pousser le gouvernement à introduire une législation transversale sur l’IA ». Il a dénoncé l’attitude « attendre et voir » comme inadaptée à une technologie qui façonne déjà les décisions dans la société et l’économie.
Les conséquences de l’incertitude
Erin Young, responsable de la politique technologique à l’Institute of Directors, a souligné que les entreprises britanniques sont de plus en plus attendues pour déployer l’IA rapidement tout en absorbant les conséquences en cas d’échec des systèmes. Elle a averti que l’incertitude juridique rend les conseils d’administration très nerveux.
« L’incertitude rend les conseils très, très nerveux », a-t-elle déclaré, notant que les directeurs sont invités à approuver des stratégies d’IA « sans une idée claire de ce que l’IA représente pour eux, des garde-fous disponibles, ou même s’il y en a. »
En l’absence d’une législation spécifique à l’IA, les entreprises s’appuient sur un « patchwork de lois existantes comme la protection des données », qui sont « étirées pour s’adapter à l’IA », laissant de « énormes lacunes » en matière de responsabilité, d’imputabilité et de bonnes pratiques.
Les petites et moyennes entreprises en danger
Young a également averti que cette ambiguïté affecte de manière disproportionnée les PME, qui n’ont pas les ressources juridiques des grandes entreprises. « Les grandes entreprises peuvent absorber cette incertitude, mais les PME feront face à des conséquences disproportionnées », a-t-elle déclaré.
Un cadre législatif nécessaire
Lord Clement-Jones, ancien président du Comité de sélection sur l’IA, a renforcé l’appel à un cadre législatif transsectoriel, affirmant que les codes volontaires et les approches sectorielles sont insuffisants. « Il s’agit de législation contraignante », a-t-il insisté, ancrée dans des principes de transparence, responsabilité, équité et surdirection humaine.
La confiance dans l’IA
Gaia Marcus, directrice de l’Ada Lovelace Institute, a mis en garde contre des réponses fragmentées qui risquent de devenir une approche de « whack-a-mole » face aux dommages de l’IA. Elle a souligné que le public souhaite que l’IA soit utilisée de manière équitable.
« 91% du public veut que l’IA soit utilisée de manière équitable », a-t-elle dit, ajoutant que lorsqu’il s’agit de compromis, ils souhaitent que l’équité soit priorisée par rapport aux gains économiques.
Un appel à l’action
Pour les leaders d’entreprise, le message de l’événement était clair : sans clarté juridique, l’adoption responsable de l’IA sera à l’arrêt. Lord Holmes a conclu que le statu quo échoue à tous les niveaux. « Cela ne fonctionne pas pour les citoyens, la société, les communautés, et cela ne fonctionne pas pour les entreprises. »
