La stratégie numérique de L’Union Européenne, l’Artificial Intelligence Act
Steve Wozniak, cofondateur d’Apple, et Yuval Noah Harari, auteur du livre Sapiens, parmi d’autres personnalités du monde de la technologie et de l’éducation, se battent depuis longtemps contre la déréglementation de l’intelligence artificielle. Ils ont à plusieurs reprises qualifié l’intelligence artificielle de « menace existentielle » si le développement de celle-ci se poursuit au rythme actuel. La réglementation sur l’IA, que des milliers de personnes ont déjà soutenue, imposerait un niveau élevé de transparence aux développeurs d’IA, en particulier pour mettre à disposition les ensembles de données utilisés pour entraîner les algorithmes.
Depuis 2018, la Commission Européenne se penche sur le sujet de l’intelligence artificielle (IA), son aspect éthique et ses implications humaines, ayant évolué surtout l’année dernière avec le développement rapide des systèmes d’IA génératives, tel que le ChatGPT. La priorité absolue du Parlement est de s’assurer que les systèmes d’IA utilisés dans l’UE sont sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement.
La Commission Européenne a donc proposé la « loi sur l’IA », qui vise à combiner le développement du progrès scientifique avec le respect des droits fondamentaux des individus. Il s’agit d’une législation qui prévoit de nouvelles règles de transparence et de gestion des risques pour les systèmes d’IA, afin que les Européens puissent avoir confiance dans ce que l’IA peut apporter. Elle a été adoptée par le Parlement européen le 14 juin 2023. Cette loi européenne est l’initiative réglementaire la plus importante en matière d’IA dans le monde aujourd’hui.
Selon la Commission Européenne, les systèmes d’IA sont définis comme des systèmes logiciels qui utilisent des données et des algorithmes de modélisation mathématique pour générer du contenu, des prévisions, des recommandations ou des décisions qui influencent des environnements réels ou virtuels. Comme exemple d’application, on peut citer l’événement des élections américaines où, en 2016, la société Cambridge Analytics a utilisé des données issues des réseaux sociaux pour cibler l’électorat américain.
Différentes règles pour différents niveaux de risque
Dans le document sur la loi sur l’IA, ces systèmes d’IA peuvent être classés en quatre groupes de risque, allant du risque minimal (un jeu vidéo) au risque inacceptable (biométrie), en passant par le risque limité (chatbot) et le risque élevé (notation de crédit).
Source : Le Pont
Risque inacceptable
Si des systèmes d’IA sont considérés comme une menace pour les personnes, ils sont classés dans la catégorie des risques inacceptables et seront interdits.
Les systèmes à risque inacceptable comprennent la manipulation cognitivo- comportementale des individus (objets qui encouragent les comportements dangereux), le scoring social, qui classe les personnes en fonction de leur classe sociale, de leurs traits de personnalité, de leur comportement, etc. En outre, les systèmes d’identification biométrique tels que la reconnaissance faciale représentent un risque élevé pour la société. Certaines exceptions peuvent être admises pour les systèmes d’identification biométrique à distance lorsque l’identification a lieu après un délai important ; elles seront autorisées pour lutter contre la criminalité et le terrorrisme seulement après approbation judiciaire ou des forces de l’ordre.
Risque élevé
La législation met l’accent sur les systèmes à risque élevé afin de rendre ces algorithmes plus ouverts et transparents, évitant ainsi des résultats indésirables pour les utilisateurs. Les systèmes d’IA étant binaires et rarement nuancés, il peut être difficile d’évaluer si une personne a été injustement lésée par un algorithme dans le cadre d’un procès, par exemple.
Pour mettre en œuvre des systèmes d’IA à risque élevé, leurs fournisseurs et utilisateurs devront se conformer à un certain nombre d’exigences obligatoires, car ils présentent des risques importants pour la santé, la sécurité et les droits fondamentaux des individus, qui sont tous nécessaires pour contribuer à une société plus juste. Ces exigences comprennent la gestion des risques, la notification à une autorité de contrôle, la certification de la conformité et des mesures correctives en cas de non-conformité.
Les systèmes d’IA classés dans la catégorie de risque élevé ont un impact négatif sur la sécurité ou les droits fondamentaux et sont divisés en 2 catégories.
Une première catégorie pour les systèmes utilisés dans les produits couverts par la législation européenne sur la sécurité des produits (jouets, voitures, appareils médicaux…).
La deuxième catégorie comprend les systèmes d’intelligence artificielle de huit domaines qui devront être enregistrés dans des bases de données de l’Union Européenne. Parmi ces domaines on trouve l’éducation et la formation professionnelle, l’identification biométrique et la catégorisation des personnes physiques, les forces de l’ordre, l’aide à l’interprétation juridique et à l’application de la loi, la gestion de la migration, de l’asile et du contrôle des frontières, etc. Les systèmes d’IA sur ces huit domaines seront évalués avant leur mise en place mais aussi tout au long de leur durée de vie.
Risque limité
Les systèmes d’IA classés à risque limité vont devoir répondre à des exigences minimales de transparence pour permettre aux utilisateurs de prendre des décisions en connaissance de cause. Après avoir interagi avec les applications, les utilisateurs doivent pouvoir décider de continuer à les utiliser ou non. Les utilisateurs qui interagissent avec l’IA doivent en être informés. Cela inclut les systèmes d’IA qui génèrent ou manipulent des images, du contenu audio ou vidéo.
Risque minimal
Dans les systèmes d’IA à risque minimal nous trouvons tous les objets connectés qui nous entourent aujourd’hui (montres connectées, domotique). Ceux-ci n’auraient pas besoin de présenter des autorisations ou de transparence spécifique.
L’IA Générative
L’IA générative (ChatGPT, DALL-E) est en train de transformer la société grâce à ses capacités remarquables, ses risques importants et son déploiement extrêmement rapide. Cependant, les fournisseurs de modèles ne respectent généralement pas les projets d’exigences visant à décrire leur utilisation de données d’entraînement protégées par les droits d’auteur, le matériel utilisé ou encore les émissions produites, ainsi que la manière dont ils évaluent et testent les modèles. C’est pour cela que l’IA générative doit également répondre à des exigences de transparence, en indiquant si le contenu a bien été généré par l’IA, en concevant des modèles de manière à ce que le contenu généré ne soit pas illégal, entre autres.
Afin d’offrir un meilleur cadre à l’IA générative, la législation européenne a été modifiée en avril, les législateurs étant convaincus que les modèles linguistiques à grande échelle tels que ChatGPT doivent être réglementés afin de préserver les valeurs et les droits fondamentaux de l’UE.
Évaluation de la conformité des acteurs de l’IA avec le projet de loi européen sur l’IA
Source : Stanford Research on Foundation Models (CRFM), Institute for Human-Centered Artificial Intelligence (HAI)
Ci-dessus, une évaluation de 10 acteurs majeurs de l’IA générative (et de leurs modèles phares) pour les 12 exigences de la loi sur l’IA. Cette évaluation se fait sur une échelle de 0 à 4. Le meilleur score possible est de 48. Les résultats montrent un écart frappant entre les acteurs de l’IA générative. En effet, certains acteurs obtiennent moins de 25 % (AI21 Labs, Aleph Alpha, Anthropic) et un seul acteur obtient au moins 75 % (Hugging Face/BigScience).
Dans le TOP 3 des acteurs conformes au projet de loi européen sur l’IA, nous trouvons Hugging Face/BigScience avec BLOOM – le plus grand modèle de langage multilingue ouvert au monde, Google avec PaLM 2 – modèle de langage étendu de prochaine génération et en troisième position OpenAI avec GPT-4 – modèle de langage multimodal. Cependant, même pour les acteurs les mieux notés, la marge de progression reste importante. Cela confirme que la loi européenne apportera des changements significatifs et permettra des progrès considérables en termes de transparence et de responsabilité.
Nous observons quatre domaines dans lesquels de nombreux acteurs obtiennent de mauvais scores :
1) Les données protégées par les droits d’auteur
2) L’énergie
3) Les risques et atténuation
4) L’évaluation et les essais
En matière de droits d’auteur, l’IA générative est aujourd’hui un sujet sensible qui tire la sonnette d’alarme. Les auteurs et les détenteurs de droits d’auteur craignent que les générateurs de contenu utilisant l’intelligence artificielle ne fassent un usage non autorisé de leurs œuvres. La question de savoir si l’utilisation d’œuvres protégées par le droit d’auteur pour entraîner des modèles d’IA générative constitue une violation du droit d’auteur est aujourd’hui le principal sujet pour l’Union européenne et les États-Unis. Bien que la loi sur l’IA ne soit pas destinée uniquement à cette fin, les législateurs européens envisagent d’exiger aux fournisseurs de systèmes d’IA génératifs qu’ils mettent à disposition « un résumé révélant l’utilisation de données d’entraînement protégées par la loi sur le droit d’auteur ».
Modèles ouverts ou restreints/fermés : quelle influence ?
Une dichotomie a été observée dans la conformité des stratégies des différents acteurs pour la diffusion ou la mise à disposition de leurs modèles.
Pour simplifier, nous considérons les modèles largement ouverts (GPT-NeoX de EleutherAI, BLOOM de Hugging Face/BigScience, LLaMA de Meta) par rapport aux modèles restreints/fermés (PaLM 2 de Google, GPT-4 d’OpenAI, Claude de Anthropic). Les versions ouvertes obtiennent généralement de bons résultats en ce qui concerne les exigences en matière de divulgation des ressources.
Les modèles ouverts sont souvent le fait d’acteurs qui insistent sur la transparence et donc sur un engagement à divulguer les ressources nécessaires à l’élaboration de leurs modèles mis à disposition. Par ailleurs, les versions restreintes ou fermées font généralement référence à des modèles qui alimentent les produits et services de l’acteur lui-même, ce qui peut conduire à des ressources sous-jacentes considérées comme un avantage pour celui-ci. Il est donc important que les exigences de déploiement soient aussi renforcées par l’Union Européenne.
Tous les fournisseurs de modèles ne se conforment pas de la même manière aux exigences énoncées dans le projet de loi européenne sur l’IA. L’adoption et l’application de cette loi entraînera des changements positifs importants. Il est donc important qu’elle soit respectée par les acteurs de l’IA générative afin d’améliorer certains aspects relatifs aux droits d’auteur, à l’énergie, aux risques, etc.
L’IA Act : Impacts et nouvelles opportunités
Dans une enquête menée auprès de plusieurs organisations européennes spécialisées dans l’IA de haute technologie et de fonds de capital-risque, celles-ci ont exprimé leurs inquiétudes quant à l’impact de la loi sur l’IA sur le marché européen en termes de coûts de mise en conformité, de ralentissement du développement de l’IA dans l’UE et de délocalisation des entreprises en dehors de l’UE, étant donné que l’Europe est à l’avant-garde de cette mission. Pour ces entreprises, les exigences les plus difficiles à satisfaire concernent la gouvernance des données, la gestion des risques et les procédures d’évaluation de la conformité.
En revanche, certains experts voient ces nouveaux besoins comme de nouvelles opportunités, car des postes et des services inédits pourraient être créés en offrant le savoir-faire de « best practice », d’entraînement et de documents d’orientation pour obtenir le « Label IA à Haut Risque ». Il s’agit d’un moment important pour l’industrie de l’IA, qui bénéficie d’investissements considérables à long terme en France, au Royaume-Uni, en Chine et aux États-Unis, quelque soit le secteur : ingénierie, linguistique, développement durable, laboratoire, médecine, entre autres.
Cette loi européenne ne va-t-elle pas accroître la concurrence pour l’IA générative ?
La start-up française Mistral AI, l’intelligence artificielle « made in France » fondée le 28 avril 2023, a annoncé une levée de fonds de 105 millions d’euros. Les 3 jeunes chercheurs français à l’origine de cette initiative en plein essor ont décidé d’offrir à l’Europe une alternative aux grands modèles de langage (LLM) de Microsoft et Google. Ils proposent des modèles de langage open source aux entreprises et prévoient de lancer les premiers début 2024. Ces grands modèles linguistiques seront donc faciles à intégrer dans les systèmes des entreprises, tout en leur permettant de garder le contrôle de leurs données.
L’Europe pourra-t-elle rattraper les États-Unis dans la course à l’IA générative ?
Raquel Alcaraz Serna, Data Scientist, AVISIA
Rafaela Bueno, Statistician, Data Analyst
Sources :
https://crfm.stanford.edu/2023/06/15/eu-ai-act.html
https://www.lepont-learning.com/fr/6-questions-sur-reglementation-intelligence-artificielle/