Des solutions numériques
pour piloter l’action publique

IA Act : les pouvoirs publics face à l'enjeu de la régulation

IA Act : les pouvoirs publics face à l’enjeu de la régulation

Face aux bouleversements technologiques, économiques et sociaux introduits par l’IA, les pouvoirs publics se penchent aujourd’hui sur sa régulation. L’Union européenne a ouvert la voie en décembre 2023 avec l’IA Act, un texte qui impose des contraintes pour les solutions jugées à « risques élevés ».

Comment garantir que les solutions utilisant l’Intelligence artificielle respectent la vie privée de leurs utilisateurs ? Par quel moyen éviter que des applications, par exemple dans le domaine du recrutement, ne développent des biais ? Comment, par ailleurs, s’assurer que les IA génératives, qui « consomment » un grand nombre de données, se conforment aux politiques nationales relatives aux droits d’auteur ? Quelles mesures prendre pour éviter que des données sensibles ne soient « captées » et diffusées par un outil reposant sur l’IA ? Comment faire en sorte que les consommateurs sachent que tel ou tel contenu (texte, audio, vidéo…) a, ou non, été généré par des systèmes d’IA ?

L’Intelligence artificielle suscite aujourd’hui de nombreux questionnements, à la hauteur des bouleversements vertigineux qu’elle introduit pour les consommateurs, les organisations et les institutions publiques. Ces dernières se penchent donc depuis plusieurs années sur sa régulation. Une question sensible qui impose de trouver un équilibre entre l’instauration d’un cadre réglementaire apportant de la sécurité et un environnement ne bridant pas l’innovation.

C’est dans ce contexte qu’un accord a été trouvé, en décembre 2023, entre les États membres et le Parlement européen, sur la régulation de l’Intelligence artificielle. Avec cet IA Act, validé à l’unanimité par les 27 début février, l’Union européenne fait figure de pionnière. Le texte a donc été observé avec attention à travers la planète.

Des contraintes pour les solutions à « risques élevés »

Il prévoit de classer les solutions d’IA générative en trois catégories. Celles à « risques minimes » – les plus nombreuses – seront exemptées de toute obligation. D’autres, à « risques élevés », seront en revanche soumises à certaines règles. On compte parmi elles des systèmes employés dans le secteur médical ou encore pour le recrutement, le maintien de l’ordre ou l’administration de la justice. Leurs utilisateurs devront, entre autres, s’assurer de la qualité des données utilisées, mettre en place un contrôle humain sur la solution ainsi qu’un système de gestion des risques.

« Les systèmes d’IA considérés comme une menace évidente pour les droits fondamentaux des personnes seront interdits. »

 

Enfin, les instances européennes indiquent que « les systèmes d’IA considérés comme une menace évidente pour les droits fondamentaux des personnes seront interdits. Il s’agit notamment des systèmes ou des applications d’IA qui manipulent le comportement humain pour priver les utilisateurs de leur libre arbitre (…) ou [de ceux] qui permettent la notation sociale par les États ou les entreprises ».

Plus largement, le texte des instances européennes impose des « obligations spécifiques en matière de transparence : lorsqu’ils utilisent des systèmes d’IA tels que des dialogueurs, les utilisateurs [devront] avoir conscience qu’ils interagissent avec une machine ».

La France en réflexion pour éviter les dérives

En France, où, comme dans le reste de l’Union, ce texte entrera en vigueur au plus tôt en 2025, une réflexion est par ailleurs menée depuis plusieurs années autour du déploiement de l’Intelligence artificielle. Une « stratégie nationale » a été initiée pour la période 2018-2025. Elle doit permettre à la France d’ « occuper une place de premier rang pour l’IA de confiance ». Les pouvoirs publics estiment, à ce sujet, qu’ « il est indispensable de s’assurer que le fonctionnement de tels systèmes automatisés repose sur des résultats corrects, fiables, robustes, sûrs, sécurisés, (…) équitables, éthiques et respectueux des données sensibles à protéger ».

80 millions d’euros pour l’IA de confiance.

 

Il ne s’agit pas là de mettre en place une régulation directe des dispositifs reposant sur l’Intelligence artificielle mais d’agir de manière indirecte, en incitant la recherche à se concentrer sur le développement de « technologies d’auditabilité, d’évaluation, de certification ou garantissant la transparence et /ou l’explicabilité des résultats des algorithmes pour assurer un bon niveau de contrôle et de fiabilité des IA ». 80 millions d’euros de financements publics ont été prévus à cet effet.

Une seconde étape s’engage aujourd’hui dans l’Hexagone. « Les bouleversements technologiques et sociaux » portés par l’IA incitent le gouvernement à « aller plus loin », notamment en « définissant une régulation adaptée des différents secteurs pour protéger des dérives ». En ce sens, un Comité de l’intelligence artificielle générative a été installé en septembre 2023. Il présentera des propositions concrètes pour « adapter la stratégie française », d’ici au printemps 2024.

Partager sur Facebook
Partager sur Twitter
Partager sur Linkedin

Laisser un commentaire

Sur le même sujet

Bienvenue dans la BU du futur

Bienvenue dans la BU du futur

Rodrigue Alexander (CHU de Martinique) : « L’IA, une réponse au défi de la démographie médicale »

Hétérogène, dispersée, inaccessible, comment reprendre en main la donnée de santé ?

Hétérogène, dispersée, inaccessible, comment reprendre en main la donnée de santé ?

France 2030 & Santé numérique : l'heure du premier bilan

France 2030 & Santé numérique : l’heure du premier bilan

CHU de Montpellier : l’IA au cœur d’un partenariat avec Dell

À lire aussi

Vers la semaine en 4 jours dans la fonction publique ?

Vers la semaine en 4 jours dans la fonction publique ?

Et non pas « de » 4 jours.

Cyber Solidarity Act : quand l’Europe dresse son bouclier numérique

Au-delà du Buzzword : Data LakeHouse

Comment libérer l’utilisation secondaire des données de santé ?

Rodrigue Alexander (CHU de Martinique) : « L’IA, une réponse au défi de la démographie médicale »

CHU de Montpellier : l’IA au cœur d’un partenariat avec Dell

Newsletter

Suivez ITPublic

La boîte à outils

Découvrir l’ensemble des contenus