IA Act – Comprendre la première loi globale sur l’IA au monde

IA Act – Comprendre la première loi globale sur l’IA au monde

La réglementation de l’IA est en marche mais ira t’elle aussi vite que l’accélération technologique ? Un ensemble de lois regroupées sous le nom d’AI Act vont encadrer l’usage de l’intelligence artificielle en Europe à partir de 2025.

Première Mondiale, ce 8 Décembre dernier, le Parlement Européen et les États membres se sont mis d’accord sur ce sujet.

Les experts d’AVISIA vous résument cet ensemble de lois :

Les grandes lignes:

  • Définition de l’IA : il s’agit d’un système automatisé qui, pour un ensemble donné d’objectifs, est en mesure d’établir des prévisions, de formuler des recommandations ou de prendre des décisions influant sur l’environnement. (OCDE)
  • Concernés : les organisations du monde entier, excepté la sécurité nationale, le secteur militaire et de la défense, la R&D, l’open source (partiellement).
  • Une période de 6 à 24 mois est accordé pour se conformer à cette nouvelle loi.
  • IA générative : des exigences spécifiques sont attendues en matière de transparence et de divulgation des informations.

Les Niveaux de risques :

Les interdictions:

  • Il s’agit de risques inacceptables, considérés comme une menace pour les personnes.
  • Elles sont rares et concernent les applications contraires aux valeurs européennes comme surveillance de masse ou les système de notation citoyenne.

Cas concernés : 

  • La manipulation cognitivo-comportementale des individus.
  • Le scoring social (classant les individus en fonction de leur classe sociale, personnalité, comportement…)
  • Les systèmes d’identification biométrique utilisant des caractéristiques sensibles.
  • L’utilisation de l’identification biométrique par les forces de l’ordre en temps réel en public.
  • Les systèmes de reconnaissance des émotions au travail et dans l’éducation.
  • Récupération d’images faciales non ciblée pour la reconnaissance de visage.

Les risques élevés:

  • Les systèmes à risque élevé doivent rendre leurs algorithmes plus ouverts et transparents
  • Cela permet une meilleure évaluation dans le cas de procès si une personne a été injustement lésée par un algorithme.
  • Les fournisseurs doivent se conformer à plusieurs obligations car ils présentent des risques importants (pour la santé, la sécurité et les droits des individus…) en rédigeant une documentation technique et en respectant la législation européenne sur le droit d’auteur.
  • Les IA concernées doivent être soumises à une évaluation de conformité stricte.

Cas concernés : 

  • Les systèmes utilisés dans les produits couverts par la législation européenne sur la sécurité des produits (appareils médicaux, véhicules, jouets…),
  • Recrutement et gestion du personnel,
  • Education et formation professionnelle,
  • Identification biométrique,
  • Aide à l’interprétation juridique et à l’application de la loi,
  • Identification biométrique et la catégorisation des personnes physiques,
  • Gestion de la migration, de l’asile, et du contrôle des frontières,
  • Systèmes de reconnaissance des émotions,
  • Accès aux services (banque, assurance,…),
  • Gestion des infrastructures critiques (eau, gaz, électricité…)

Les risques limités et minimes:

  • Les systèmes d’IA à risques limités doivent répondre à des exigences minimales et de transparence.
  • L’objectif est de permettre aux utilisateurs de prendre des décisions en connaissance de cause.
  • Cela comprend les systèmes d’IA qui génèrent ou manipulent des images, du contenu textuel, audio ou vidéo.
  • Les systèmes d’IA à risque minimal concernent les objets connectés (montres connectées, domotique…).
  • Ces systèmes ne sont pas confrontés à des réglementations spécifiques.

Droits, obligations et sanctions:

  • Les citoyens ont le droit de déposer des plaintes concernant les systèmes d’IA et de recevoir des explications sur les décisions basées sur des systèmes d’IA à haut risque qui ont un impact sur leurs droits.
  • Les systèmes d’IA à usage général (GPAI), et les modèles GPAI sur lesquels ils sont basés, doivent adhérer aux exigences de transparence.
  • Le non-respect des règles peut entraîner des amendes allant de 35 millions d’euros ou 7 % du chiffre d’affaires global à 7,5 millions ou 1,5 % du chiffre d’affaires, selon l’infraction et la taille de l’entreprise.

Sources

Tags

Articles en lien

Data contact

Avec notre expertise, faites parler vos données