Comprendre la législation de l'UE sur l'IA : Jalons, histoire et objectifs futurs

L'intelligence artificielle (IA) a rapidement révolutionné les industries, les économies et les sociétés du monde entier. Reconnaissant à la fois le vaste potentiel et les risques intrinsèques de la technologie de l'IA, l'Union européenne (UE) a mis en place une législation complète pour régir le développement et l'utilisation de l'IA. Rob Nidschelm se penchera sur les jalons, l'histoire et les objectifs de la nouvelle législation de l'UE en matière d'IA, explorera sa relation avec d'autres cadres réglementaires (tels que GDPR, NIS2 et DORA) et examinera des initiatives similaires en dehors de l'UE.

Brève histoire de la législation sur l'IA dans l'UE

Les efforts législatifs de l'UE en matière d'IA ont commencé sérieusement à la fin des années 2010 et visaient à encourager l'innovation tout en sauvegardant les droits et la sécurité des citoyens. Les principales étapes ont été les suivantes :

  • Avril 2018 : La Commission européenne dévoile la stratégie européenne sur l'intelligence artificielle, se concentrant sur l'amplification des investissements publics et privés dans l'IA, la préparation aux transformations socio-économiques et la garantie d'un cadre éthique et juridique approprié.
  • Décembre 2018 : Adoption du plan coordonné sur l'intelligence artificielle, encourageant la collaboration entre les États membres pour maximiser l'impact des investissements dans l'IA à la fois au niveau de l'UE et au niveau national.
  • Avril 2019 : Le groupe d'experts de haut niveau sur l'IA a publié les lignes directrices en matière d'éthique pour une IA digne de confiance, soulignant des principes tels que la transparence, la responsabilité et la surveillance humaine.
  • Février 2020 : Publication du livre blanc sur l'intelligence artificielle par la Commission européenne, proposant des options politiques pour permettre un développement fiable et sécurisé de l'IA en Europe.
  • Avril 2021 : Introduction de la proposition de loi sur l'intelligence artificielle (AI Act), visant à établir un cadre juridique pour l'IA qui concilie l'innovation et la protection des droits fondamentaux.

Comprendre la loi sur l'intelligence artificielle

La proposition de loi sur l'IA constitue un texte législatif historique visant à réglementer les technologies de l'IA en fonction des risques potentiels qu'elles présentent. Elle adopte une approche fondée sur les risques, en classant les systèmes d'IA par catégories afin de garantir des niveaux de réglementation appropriés san s étouffer l'innovation.

Au sommet de la hiérarchie se trouvent les systèmes d'IA qui présentent un "risque inacceptable". Ils sont purement et simplement interdits en raison de leur capacité à menacer la sécurité, les moyens de subsistance ou les droits fondamentaux. Il s'agit notamment des systèmes qui manipulent le comportement humain pour contourner le libre arbitre des utilisateurs, ou qui permettent aux gouvernements de procéder à un marquage social.

Viennent ensuite les applications d'IA "à haut risque", qui sont soumises à des obligations strictes avant de pouvoir être commercialisées. Ces systèmes sont généralement utilisés dans des secteurs critiques tels que les soins de santé, les transports et l'application de la loi. Les normes comprennent la réalisation d'évaluations des risques, la garantie d'ensembles de données de haute qualité, la tenue de registres d'activités et la possibilité d'une surveillance humaine.

Les systèmes à "risque limité" sont ceux qui sont soumis à des obligations de transparence spécifiques. Par exemple, les chatbots doivent informer les utilisateurs qu'ils interagissent avec une machine, afin de garantir un consentement éclairé.

Enfin, il est possible de développer et d'utiliser des systèmes d'IA à "risque minimal", qui sont ouverts à la législation existante sans exigences légales supplémentaires.

La loi sur l'IA par rapport à la RGPD, à NIS2 et à DORA

La loi sur l'IA n'existe pas en vase clos ; elle complète et recoupe d'autres cadres réglementaires importants de l'UE, ce qui crée un environnement règlementaire unifié pour la gouvernance des technologies.

Le règlement général sur la protection des données (RGPD), appliqué depuis mai 2018, est le socle de la protection des données et de la vie privée dans l'UE. La loi sur l'IA s'appuie sur les principes de la RGPD en abordant la qualité des données et la gouvernance dans les systèmes d'IA. Les deux réglementations mettent l'accent sur la protection des données personnelles, la transparence et les droits des individus. Par exemple, les systèmes d'IA doivent garantir la minimisation des données et le traitement licite, conformément aux exigences de la RGPD.

La directive sur la sécurité des réseaux et de l'information 2 (NIS2) vise à renforcer la cybersécurité dans l'ensemble de l'UE, en couvrant les secteurs critiques et les services essentiels. La loi sur l'IA répond à la directive NIS2 en garantissant que les systèmes d'IA, en particulier ceux à haut risque, sont sécurisés et résilients face aux cybermenaces. Cette unité est cruciale car les systèmes d'IA pourraient devenir des cibles ou des outils pour les cyberattaques, ce qui pourrait compromettre la sécurité et la vie privée.

La loi sur la résilience opérationnelle numérique (Digital Operational Resilience Act - DORA) se concentre sur la capacité du secteur financier à résister et à se remettre de perturbations liées aux TIC. La loi sur l'IA complète la loi DORA en garantissant que les systèmes d'IA utilisés dans la finance sont fiables et sûrs. Ensemble, ils favorisent la résilience opérationnelle, en mettant l'accent sur la gestion des risques, le signalement des incidents et une surveillance rigoureuse.

En alignant la loi sur l'IA sur la RGPD, NIS2 et DORA, l'UE crée un environnement réglementaire unifié qui traite de la protection des données, de la cybersécurité et de la résilience opérationnelle, favorisant un écosystème digne de confiance pour le développement et le déploiement de l'IA.

Objectifs de la nouvelle législation sur l'IA

La législation de l'UE en matière d'IA vise à atteindre plusieurs objectifs clés. L'un des principaux est la protection des droits fondamentaux et de la sécurité, en veillant à ce que les systèmes d'IA soient développés et utilisés dans le respect de principes tels que la non-discrimination, la protection de la vie privée et la protection des données.

La promotion d'une IA digne de confiance est un autre objectif central. En établissant des règles et des normes claires, la législation vise à renforcer la confiance du public dans les technologies d'IA, ce qui est essentiel pour qu'elles soient adoptées et acceptées. L'UE souhaite également encourager l'innovation en créant un marché unique pour les applications d'IA légales, sûres et dignes de confiance. Il s'agit de limiter la fragmentation du marché et d'offrir une sécurité juridique aux entreprises et aux innovateurs.

Il est essentiel de garantir la transparence et la responsabilité. La législation impose des mesures de transparence, telles que la divulgation du moment où les individus interagissent avec les systèmes d'IA, et garantit que les systèmes sont vérifiables et responsables. Cette transparence a pour but de responsabiliser les utilisateurs et de maintenir la confiance du public dans les technologies d'IA.

Impact sur les entreprises

Pour les entreprises opérant au sein de l'UE ou traitant des données de citoyens de l'UE, la loi sur l'IA présente à la fois des défis et des opportunités. Les entreprises devront évaluer leurs systèmes d'IA pour déterminer leur catégorie de risque et s'assurer qu'ils sont conformes aux obligations pertinentes. Cela peut impliquer des ajustements significatifs de leurs processus de développement et de déploiement.

Les exigences de conformité pourraient impliquer des investissements nécessaires dans de nouveaux systèmes et processus, en particulier pour ceux qui déploient des systèmes d'IA à haut risque. Cependant, des réglementations claires peuvent fournir un environnement stable pour l'innovation, encourageant l'investissement dans des technologies d'IA qui sont conformes et dignes de confiance. L'UE créant souvent des précédents en matière de normes réglementaires (comme dans le cas de la RGPD), les entreprises auront tout intérêt à s'aligner sur les réglementations de l'UE, ce qui pourrait leur conférer un avantage concurrentiel sur les marchés mondiaux.

Législation similaire en dehors de l'UE

La reconnaissance de l'impact profond de l'IA ne se limite pas à l'Europe. En effet, à l'échelle mondiale, les pays élaborent leurs propres cadres pour réglementer l'IA, reflétant une tendance mondiale vers une gouvernance responsable de l'IA.

Aux États-Unis, une approche sectorielle a été adoptée, diverses agences fédérales publiant des lignes directrices spécifiques à leurs domaines. L'Algorithmic Accountability Act a été proposé pour obliger les entreprises à évaluer l'impact des systèmes de décision automatisés et en atténuer les risques. Bien qu'elle n'ait pas encore été promulguée, cette loi témoigne d'une prise de conscience croissante de la nécessité d'une surveillance de l'IA.

Le Royaume-Uni, après le Brexit, élabore sa stratégie en matière d'IA en mettant l'accent sur une réglementation favorable à l'innovation. Le Royaume-Uni prévoit d'introduire un cadre réglementaire qui encourage l'innovation tout en tenant compte des risques associés à l'IA. Cette approche vise à trouver un équilibre entre la position du Royaume-Uni en tant que leader dans le développement de l'IA et la nécessité de préserver les intérêts publics.

En Chine, le gouvernement a mis en place des réglementations sur l'IA, en se concentrant particulièrement sur la sécurité des données et l'utilisation éthique de l'IA. L'approche de la Chine associe une surveillance gouvernementale stricte à une volonté agressive de leadership technologique dans le domaine de l'IA. Les réglementations mettent l'accent sur la nécessité d'aligner l'IA sur les valeurs sociales et les intérêts de sécurité nationale.

Au Canada, le gouvernement a proposé une loi sur l'intelligence artificielle et les données (AIDA) visant à réglementer les systèmes d'IA à fort impact et à garantir qu'ils sont développés et déployés de manière responsable. La loi exigerait des organisations qu'elles adoptent des mesures pour atténuer les risques et qu'elles mettent en place des mécanismes de surveillance.

En Australie, le gouvernement a publié l'AI Ethics Framework, qui propose des principes volontaires pour guider les entreprises et les gouvernements dans la conception, le développement et la mise en œuvre de l'IA. Bien qu'il ne soit pas juridiquement contraignant, il reflète l'engagement de l'Australie à veiller à ce que les technologies d'IA soient sûres, sécurisées et fiables.

Au Japon, le gouvernement a promu les principes sociaux de l'IA centrée sur l'homme, en mettant l'accent sur des principes tels que les droits de l'homme, la protection de la vie privée et la promotion de l'innovation. L'approche japonaise met l'accent sur la coexistence harmonieuse des humains et de l'IA, dans le but de favoriser la confiance et l'acceptation du public.

Au Brésil, le gouvernement étudie le cadre juridique de l'intelligence artificielle, qui vise à établir des principes, des droits et des devoirs pour le développement et l'application de l'IA. Ce cadre vise à promouvoir l'innovation tout en garantissant le respect des normes éthiques et des droits fondamentaux.

En Afrique du Sud, démontrant l'intérêt croissant du continent africain pour l'IA, le gouvernement a commencé à explorer le potentiel de l'IA et les réponses réglementaires nécessaires. La Commission présidentielle sur la quatrième révolution industrielle a recommandé l'élaboration d'un cadre politique et législatif complet pour l'IA, axé sur la croissance inclusive et les considérations éthiques.

Ces initiatives proviennent de tous les continents et soulignent un mouvement mondial vers l'établissement de cadres réglementaires qui cherchent l'équilibre entre innovation et considérations éthiques et gestion des risques. L'approche de chaque pays reflète son contexte socio-économique unique, ses traditions juridiques et ses priorités stratégiques, contribuant ainsi à la diversité mondiale de la gouvernance de l'IA.

Perspectives d'avenir

La loi sur l'IA est encore en cours de discussion et peut faire l'objet d'amendements. Elle doit être approuvée par le Parlement européen et le Conseil avant de devenir une loi. Une fois adoptée, une période de transition permettra aux parties prenantes de s'adapter aux nouvelles réglementations. L'intégration avec la RGPD, la directive NIS2 et DORA souligne l'approche holistique de l'UE en matière de réglementation, garantissant que les systèmes d'IA sont non seulement innovants, mais aussi sûrs, transparents et respectueux des droits individuels.

Principaux enseignements

  • L'UE montre la voie en créant une législation complète sur l'IA avec la proposition de loi sur l'IA.
  • La loi sur l'IA complète d'autres réglementations telles que la RGPD, NIS2 et DORA, créant un cadre unifié pour la protection des données, la cybersécurité et la résilience opérationnelle.
  • Une approche fondée sur le risque permet de classer les systèmes d'IA dans les catégories suivantes : risque inacceptable, risque élevé, risque limité et risque minimal.
  • La législation vise à protéger les droits fondamentaux, à promouvoir la confiance, à encourager l'innovation et à garantir la transparence.
  • Les entreprises doivent se préparer à se conformer aux nouvelles obligations, qui peuvent avoir un impact sur les stratégies de développement et de déploiement.
  • Des efforts réglementaires similaires sont en cours dans le monde entier, ce qui témoigne de la reconnaissance mondiale de la nécessité d'une gouvernance responsable de l'IA.
  • Pour les organisations concernées par ces changements, il est essentiel de rester informé et de s'engager dans le processus législatif.

En comprenant l'historique et les objectifs de la législation de l'UE en matière d'IA et sa relation avec d'autres cadres réglementaires, les entreprises peuvent naviguer efficacement dans le nouvel environnement réglementaire et contribuer au développement de technologies d'IA qui sont à la fois innovantes et conformes aux valeurs sociétales.

Pour en savoir plus sur ce que le cadre de l'UE en matière d'IA signifiera pour vous, veuillez contacter l'un de nos experts. Nous vous aiderons à préparer votre entreprise aux changements décrits ci-dessus et à utiliser l'IA d'une manière légale et éthiquement responsable.

Équipe de rédaction de Getronics

Dans cet article :

Partager cet article

Parlez avec l'un de nos experts

Si vous envisagez de créer une nouvelle expérience digitale, quelle que soit l'étape à laquelle vous vous trouvez, nous serions ravis d'échanger avec vous.