2026 : L’année où l’IA grandit
Nous y revoilà. Il semble qu’hier seulement, nous étions « euphorique et désorientés » par le tsunami de l’IA de 2023/2024. Un an plus tard, nous tentions de donner un sens à la vague d’agents IA qui nous submergeait et, en 2025, l’IA a cessé d’être un « et si » pour devenir un « comment faire » pour les organisations. 2026 sera différent : la bulle de l’engouement n’a pas éclaté, mais elle s’est quelque peu dégonflée, laissant place à quelque chose de bien plus tangible et complexe. Si les années précédentes ont marqué l’émergence de l’IA, 2026 marquera le début de sa maturité.
L’Acte européen sur l’IA et les systèmes IA à haut risque
À présent, la plupart des organisations visées par l’Acte européen sur l’IA auront commencé à dresser un inventaire et une classification de leurs systèmes IA ; les systèmes IA interdits devraient déjà avoir été éliminés, et les employés devraient avoir reçu au moins une formation sur la « littératie IA » appropriée à leur rôle cette année. Les règles concernant les modèles GPAI ont commencé à s’appliquer en août dernier.
Pour ceux soumis aux règles à haut risque pour les systèmes de l’Annexe III, la date à entourer en rouge sur le calendrier de l’année prochaine est le 2 août 2026 – du moins, nous le pensons. En l’état actuel, c’est à cette date que la majorité des obligations pour les systèmes IA à haut risque deviendront enfin applicables. Cependant, cette échéance a été mise en doute lorsque la Commission européenne a publié sa proposition de Digital Omnibus le 19 novembre 2025.
Préparations pour la conformité à l’Acte sur l’IA
Pour toute entreprise utilisant ou fournissant des systèmes IA à haut risque dans le cadre de l’Acte européen sur l’IA, il ne s’agit plus d’un exercice. Les nouvelles règles arrivent, qu’elles soient prêtes ou non. Les exigences incluent :
- la mise en place d’un système de gestion des risques (et dans certains cas d’un système de gestion de la qualité) pour identifier, évaluer et atténuer les risques tout au long du cycle de vie des systèmes IA,
- l’assurance de la qualité des ensembles de données grâce à une gouvernance et un contrôle efficaces,
- la possibilité pour les utilisateurs de surveiller le fonctionnement, d’interpréter les résultats, de rester conscients du biais d’automatisation, et dans certaines situations, d’interrompre ou de remplacer le système,
- l’assurance de la résilience des systèmes IA contre les tentatives de modification non autorisées et les vulnérabilités techniques, et
- la rédaction et la mise à jour de la documentation technique pour démontrer la conformité.
En l’absence de normes harmonisées, les utilisateurs et fournisseurs de systèmes IA pourraient bénéficier d’une approche par d’autres normes plus génériques pour amorcer leur conformité à l’Acte sur l’IA.
Codes de pratiques pour l’IA générale
Les Codes de Pratique (CoP) sont un autre moyen de développer des normes sectorielles en coordination avec l’Office de l’IA. Le 10 juillet 2025, le Code de Pratique sur l’IA générale (GPAI) a été publié. Ce CoP sert de moyen développé par l’industrie et d’option pour se conformer à certaines parties de l’Acte sur l’IA s’appliquant aux fournisseurs de GPAI depuis le 2 août 2025.
Cependant, bien que le CoP vise à clarifier la loi, il reste encore flou sur la manière dont les obligations décrites doivent être remplies en pratique.
2026 : L’année des marques d’eau ?
Selon les règles de transparence de l’Acte sur l’IA, les individus doivent être correctement informés lorsqu’ils interagissent avec un système IA. Les fournisseurs de systèmes IA utilisés pour générer du contenu synthétique devront s’assurer que la sortie est marquée dans un format lisible par machine.
Le 5 novembre 2025, la Commission européenne a rencontré des groupes industriels pour développer un Code de Pratique sur le marquage et l’étiquetage du contenu généré par l’IA. Ce CoP aidera les utilisateurs à divulguer clairement l’implication de l’IA, notamment lors d’informations sur des questions d’intérêt public.
Une plus grande flexibilité sur l’utilisation des données personnelles
Le paquet Digital Omnibus propose des changements à l’Acte sur l’IA et simplifie l’acquis de données de l’UE, y compris le RGPD. Il vise à simplifier pour améliorer la compétitivité de l’UE, citant l’« accumulation de règles » comme un effet néfaste sur l’innovation.
Un nouvel Article 88c précise que le traitement de données personnelles pour le développement et l’exploitation d’un système IA peut être poursuivi dans le cadre de l’intérêt légitime, sauf si des lois nationales exigent explicitement le consentement.
2026 : L’année des accords de licence ?
Le 11 novembre 2025, un tribunal de Munich a statué qu’OpenAI avait enfreint le droit d’auteur en utilisant des paroles de chanson dans ses modèles IA. Cette affaire touche au cœur de la manière dont le droit d’auteur de l’UE s’applique à l’ère de l’IA.
Les discussions avec les parties prenantes suggèrent que des accords de licence collectifs pourraient émerger pour gérer les données d’entraînement IA, semblables aux redevances musicales.
Assurance et responsabilité de l’IA
Le retrait de la directive sur la responsabilité de l’IA soulève des questions sur la manière dont la responsabilité liée à l’IA sera gérée, en particulier pour les cas en dehors du champ d’application de la directive harmonisée sur la responsabilité des produits.
Conclusion
En 2026, nous ne nous souviendrons pas de l’année où l’IA a émergé, mais de l’année où l’IA a mûri. Les organisations commenceront à traduire les exigences de l’Acte sur l’IA et les défis technologiques en solutions pratiques.
