Comment garantir que les solutions utilisant l’Intelligence artificielle respectent la vie privée de leurs utilisateurs ? Par quel moyen éviter que des applications, par exemple dans le domaine du recrutement, ne développent des biais ? Comment, par ailleurs, s’assurer que les IA génératives, qui « consomment » un grand nombre de données, se conforment aux politiques nationales relatives aux droits d’auteur ? Quelles mesures prendre pour éviter que des données sensibles ne soient « captées » et diffusées par un outil reposant sur l’IA ? Comment faire en sorte que les consommateurs sachent que tel ou tel contenu (texte, audio, vidéo…) a, ou non, été généré par des systèmes d’IA ?
L’Intelligence artificielle suscite aujourd’hui de nombreux questionnements, à la hauteur des bouleversements vertigineux qu’elle introduit pour les consommateurs, les organisations et les institutions publiques. Ces dernières se penchent donc depuis plusieurs années sur sa régulation. Une question sensible qui impose de trouver un équilibre entre l’instauration d’un cadre réglementaire apportant de la sécurité et un environnement ne bridant pas l’innovation.
C’est dans ce contexte qu’un accord a été trouvé, en décembre 2023, entre les États membres et le Parlement européen, sur la régulation de l’Intelligence artificielle. Avec cet IA Act, validé à l’unanimité par les 27 début février, l’Union européenne fait figure de pionnière. Le texte a donc été observé avec attention à travers la planète.
Des contraintes pour les solutions à « risques élevés »
Il prévoit de classer les solutions d’IA générative en trois catégories. Celles à « risques minimes » – les plus nombreuses – seront exemptées de toute obligation. D’autres, à « risques élevés », seront en revanche soumises à certaines règles. On compte parmi elles des systèmes employés dans le secteur médical ou encore pour le recrutement, le maintien de l’ordre ou l’administration de la justice. Leurs utilisateurs devront, entre autres, s’assurer de la qualité des données utilisées, mettre en place un contrôle humain sur la solution ainsi qu’un système de gestion des risques.
« Les systèmes d’IA considérés comme une menace évidente pour les droits fondamentaux des personnes seront interdits. »
Enfin, les instances européennes indiquent que « les systèmes d’IA considérés comme une menace évidente pour les droits fondamentaux des personnes seront interdits. Il s’agit notamment des systèmes ou des applications d’IA qui manipulent le comportement humain pour priver les utilisateurs de leur libre arbitre (…) ou [de ceux] qui permettent la notation sociale par les États ou les entreprises ».
Plus largement, le texte des instances européennes impose des « obligations spécifiques en matière de transparence : lorsqu’ils utilisent des systèmes d’IA tels que des dialogueurs, les utilisateurs [devront] avoir conscience qu’ils interagissent avec une machine ».
La France en réflexion pour éviter les dérives
En France, où, comme dans le reste de l’Union, ce texte entrera en vigueur au plus tôt en 2025, une réflexion est par ailleurs menée depuis plusieurs années autour du déploiement de l’Intelligence artificielle. Une « stratégie nationale » a été initiée pour la période 2018-2025. Elle doit permettre à la France d’ « occuper une place de premier rang pour l’IA de confiance ». Les pouvoirs publics estiment, à ce sujet, qu’ « il est indispensable de s’assurer que le fonctionnement de tels systèmes automatisés repose sur des résultats corrects, fiables, robustes, sûrs, sécurisés, (…) équitables, éthiques et respectueux des données sensibles à protéger ».
80 millions d’euros pour l’IA de confiance.
Il ne s’agit pas là de mettre en place une régulation directe des dispositifs reposant sur l’Intelligence artificielle mais d’agir de manière indirecte, en incitant la recherche à se concentrer sur le développement de « technologies d’auditabilité, d’évaluation, de certification ou garantissant la transparence et /ou l’explicabilité des résultats des algorithmes pour assurer un bon niveau de contrôle et de fiabilité des IA ». 80 millions d’euros de financements publics ont été prévus à cet effet.
Une seconde étape s’engage aujourd’hui dans l’Hexagone. « Les bouleversements technologiques et sociaux » portés par l’IA incitent le gouvernement à « aller plus loin », notamment en « définissant une régulation adaptée des différents secteurs pour protéger des dérives ». En ce sens, un Comité de l’intelligence artificielle générative a été installé en septembre 2023. Il présentera des propositions concrètes pour « adapter la stratégie française », d’ici au printemps 2024.