Intelligence Artificielle Générale (IAG)

Intelligence Artificielle Générale (IAG)

IAG – Ce concept qui a failli détruire OpenAI ?

Dans le récent imbroglio chez OpenAI qui a secoué la communauté tech autour du départ / retour de Sam ALTMAN, le concept d’Intelligence Artificielle Générale (IAG en français ou AGI pour Artificial General Intelligence en anglais) a pris une place centrale.

Ce concept, qui a provoqué un séisme dans l’entreprise, aurait pu conduire en moins de 48h à la destruction d’une des entreprises les plus en vue du moment.

Mais comment est-ce possible ? De quoi parlons nous exactement ? Et faut-il s’en inquiéter de façon plus globale ?

Artificial General Intelligence (AGI)

L’intelligence artificielle

Chez AVISIA nous définissons l’intelligence artificielle comme un produit ou une fonctionnalité qui regroupe 3 critères fondamentaux :

  • construit avec de l’apprentissage : c’est à dire qu’il s’appuie sur la data pour comprendre ou reproduire un comportement (ou un phénomène),
  • prend en compte des interactions : c’est à dire qu’il évolue et se personnalise en fonction d’un contexte auquel il doit s’adapter (ou faire face),
  • poursuit une stratégie : c’est-à-dire qu’il va répondre à une problématique définie (ou une ambition précise).

L’exemple par excellence d’une intelligence artificielle est bien évidemment la voiture autonome qui :

  • Utilise des données (GPS, code de la route, …) pour apprendre comment se déplacer
  • Gère les interactions (piétons, autres voitures, panneaux de signalisation) pour adapter son déplacement,
  • Et se matérialise en une voiture dont la stratégie est de déplacer des individus d’un point A à un point B en respectant le code de la route et sans avoir d’accident.

Les différents types d’Intelligence Artificielle

Dans le domaine de l’intelligence artificielle, on peut identifier plusieurs niveaux de capacités allant de ce que l’on appelle des IA Faibles, spécialisée sur des tâches basiques, à des IA Fortes, capables de raisonnement proche de celui de l’être humain.

Historiquement, et comme Luc JULIA l’a exposé dans un de ses ouvrages (*), rien ne permettait de penser que l’IA soit capable d’arriver au stade d’IA Forte.

Or le feuilleton OpenAI vient peut-être de remettre en cause cette croyance. En effet le départ de Sam ALTAM semble avoir été provoqué par un courrier de l’équipe Q* (à prononcer Q star) en charge d’un projet d’Artificial General Intelligence (AGI).

L’Artificial General Intelligence consiste à donner la capacité à une machine de résoudre des problèmes mathématiques qui n’admettent qu’une seule solution correcte. Ceci impliquant une capacité de raisonnement pour y parvenir. Capacité de raisonnement qui par extension peut lui permettre de prendre des décisions cohérentes en fonction de ce qu’elle a perçu, dans une situation inédite. Une aptitude qu’on considérait jusqu’à présent réservée à l’être humain.

L’équipe Q* de OpenAI aurait réalisé des avancées significatives dans ce domaine en permettant à leur produit de résoudre des problèmes mathématiques simples (niveau CM2) mais laissant augurer de bonnes perspectives de progression dans ce domaine.

Selon Reuter, l’équipe Q*, consciente de l’importance dans cette avancée et des risques potentiels liés, aurait pris l’initiative d’écrire au conseil d’administration. Outre l’impact de ce courrier, des réactions et décisions des différents protagonistes, arrêtons nous sur le fait que l’équipe projet Q* semble elle-même inquiète au point d’alerter le conseil d’administration.

Les risques de l’intelligence artificielle générale

Rassurez-vous, nous évacuons tout de suite les aspects futuristes de machines prenant le contrôle de l’humanité. Il ne s’agit pas de ça.

Ici les risques potentiels concernent tout un pan d’activités à valeur économique qui pourraient être impactées voire remplacées par des machines.Jusqu’à présent, le fait que des IA puissent remplacer des tâches basiques ou répétitives à faibles valeurs n’était pas problématique.

Ex : Une intelligence artificielle capable de parcourir des emails reçus par un service client.

Son champs d’actions se résume à

  • comprendre les emails et les trier en fonction de leurs typologies,
  • traiter automatiquement les demandes simples,
  • et rediriger à des conseillers les demandes les plus complexes.

Ici l’IA vient renforcer la valeur ajoutée du service client, tout en recentrant l’activité humaine sur les aspects à valeur ajoutée.

Mais la poursuite du développement des capacités en Intelligence Artificielle Générale à des niveaux plus complexes que les mathématiques de CM2 pourrait amener à remplacer des activités davantage au cœur de notre fonctionnement économique.

Nous pourrions dès lors imaginer des évolutions dans le fonctionnement des marchés financiers par exemple. Une analyse fine de la compréhension du fonctionnement des cours pourrait amener à générer des contenus destinés à manipuler le marché et à exécuter automatiquement des ordres d’achats / ventes pour générer des gains.

Un guerre froide liée à l’IA

Par le passé, le domaine a déjà connu différentes périodes qui ont façonnées ses contours (cf. Histoire de l’IA) et il y a fort à parier que nous entrons dans une nouvelle période potentiellement décisive pour la suite.

Cette nouvelle période va faire cohabiter (ou peut-être s’affronter) deux visions sur l’IA :

  • Progressiste : ayant en ligne de mire toutes les avancées positives que le domaine peut apporter et cherchant son développement rapide et maximal.
  • Sociétale : ayant conscience des risques / détournements potentiels auxquels le domaine s’expose ainsi que des contrôles à mettre en place.

Un exemple parlant que l’on connaît tous est celui du couteau que l’Homme, au cours de son évolution, a façonné pour lui permettre de survivre et se nourrir.

  • Un couteau utilisé en cuisine chez soi est un outil formidable dont on ne pourrait se passer,
  • Le même couteau entre les mains d’une personne mal intentionnée dans un avion peut avoir des impacts terribles.

D’où le fait que, conscient de cela, ce genre d’outil est interdit et que des portiques de sécurité existent à l’entrée de chaque aéroport.

Conscients du danger, devrions-nous interdire le développement des outils ? Ou bien faut-il cacher les avancées de peur que les dangers freinent leur développement ?

C’est la réponse à laquelle notre société va devoir répondre, avec des enjeux qui semblent vertigineux aussi bien en termes économiques que sociaux.

Une guerre froide de l’IA pourrait se constituer si par exemple l’Europe, Etats Unis, Chine ou Russie prennent des chemins opposés sur cette vision de l’avenir de l’IA.

Axe de réflexion possible

Peut-être que notre société pourrait s’inspirer des évolutions dans le domaine de la sustainability et des enjeux de transformation durable, comme par exemple avec la constitution du GIEC (Groupe Intergouvernemental d’Experts sur l’évolution du Climat).

On rappelle qu’il s’agit d’un organisme intergouvernemental chargé d’évaluer l’ampleur, les causes et les conséquences du changement climatique en cours.

Ouvert aux membres de l’ONU, le GIEC regroupe 195 États. Cet organisme réalise une analyse critique et approfondie, fondée sur des publications scientifiques et techniques, afin de synthétiser les connaissances actuelles sur le climat.

Grâce à ses principes et à son mode de fonctionnement, le GIEC a réussi à établir un consensus global, non seulement au sein de la communauté scientifique mais aussi, de plus en plus, auprès de la communauté internationale au sens large.

A quand la création d’un GIEIA (Groupe Intergouvernemental d’Experts sur l’évolution de l’Intelligence Artificielle) regroupant les meilleurs spécialistes du domaine, capables de faire travailler ensemble les visions progressistes et sociétales ?

La France et ses nombreux talents en la matière pourraient en être les fers de lance à coup sûr. Espérons que Yann, Luc, Joëlle et les 9 autres experts de notre comité de l’intelligence artificielle ouvriront la voie dans cette direction.

Références / Sources

  • https://www.reuters.com/technology/sam-altmans-ouster-openai-was-precipitated-by-letter-board-about-ai-breakthrough-2023-11-22/
  • https://www.theverge.com/23966325/openai-sam-altman-fired-turmoil-chatgpt
  • (*) L’intelligence Artificielle n’existe pas – Luc JULIA – Édition First – 2019 :

Tags

Articles en lien

Data contact

Avec notre expertise, faites parler vos données