Les règles de sécurité de l’IA : un frein à la concurrence ?

Comment les règles de sécurité de l’IA pourraient nuire à la concurrence

Alors que les décideurs s’empressent de rédiger le manuel de la sécurité de l’IA, de l’EU AI Act au US AI Action Plan, un résultat non intentionnel pourrait se dessiner en silence. Les règles conçues pour protéger le public pourraient, si elles ne sont pas soigneusement élaborées, pencher le marché de l’IA en faveur des entreprises établies.

Un avantage pour les grandes entreprises

Si une régulation uniforme impose que tous les modèles de langage de grande taille (LLMs) doivent refuser certaines demandes, les plus grandes entreprises gagneront un avantage significatif. Les utilisateurs seront dirigés vers les modèles les plus connus et de la plus haute qualité, tandis que les startups, en particulier les fournisseurs de LLM open-source, pourraient être écartés. Cela pourrait conduire à un écosystème qui semble plus sûr, mais qui est également moins innovant, moins réactif aux véritables besoins des utilisateurs et plus concentré.

Une approche asymétrique

Nos dernières recherches, basées sur des preuves de comportements réels des utilisateurs, suggèrent une implication presque contre-intuitive. Si des règles de sécurité sont imposées, une approche asymétrique, plutôt qu’une approche uniforme, pourrait être préférable. Des règles plus strictes pour les plus grands modèles, combinées à une plus grande flexibilité pour les petites entreprises, pourraient améliorer les résultats en matière de sécurité sans exacerber la concentration du marché.

La perte de niches de marché

Les politiques de refus uniformes effaceraient ces niches. Des segments entiers du marché disparaîtraient, ainsi que les startups qui les construisent. Ce n’est pas seulement une perte pour les entrepreneurs ; c’est aussi une perte pour les utilisateurs qui souhaitent clairement des produits spécialisés combinant transparence, contrôles de sécurité, et une gamme complète de cas d’utilisation expressifs ou techniques.

Refus et comportement des utilisateurs

Cela ne signifie pas que les LLM ne devraient jamais refuser les demandes des utilisateurs. Les refus sont souvent nécessaires, mais ils sont rarement populaires. Nos données montrent que moins de 5 % des demandes sont « risquées », mais l’aversion au refus est extrêmement forte. Lorsque des modèles populaires déclinent une demande, de nombreux utilisateurs cherchent simplement ailleurs.

Réglementation ciblée et flexibilité

Si des règles de sécurité sont introduites, des approches ciblées et asymétriques peuvent améliorer à la fois la sécurité et la concurrence. Les entreprises les plus capitalisées dominent l’utilisation ; appliquer des règles plus strictes à elles a le plus grand impact sur la réduction du contenu nuisible à grande échelle. Pendant ce temps, les petits fournisseurs ont généralement une utilisation et une capacité moindres.

Concentration du marché

Si les petits fournisseurs open-source sont réglementés pour adopter le même comportement de refus que les plus grands laboratoires, les utilisateurs n’ont d’autre choix que de revenir vers les grandes entreprises. En agrégat, cela augmente la concentration. Pour les utilisateurs qui effectuent des demandes risquées, la concentration du marché peut augmenter d’environ 5 %, comparable à la suppression d’un concurrent de taille intermédiaire.

Conclusion

Les politiques de sécurité de l’IA doivent être abordées avec prudence. Des règles mal conçues, uniformes, peuvent causer plus de mal que de bien, tandis que des approches soigneusement calibrées et asymétriques peuvent offrir un meilleur équilibre entre sécurité, innovation et concurrence.

Scroll to Top