Définition
Self-Supervised Learning
Qu’est-ce que le Self-Supervised Learning (SSL) ?
Le Self-Supervised Learning, ou Apprentissage Auto-Supervisé (AAS), est une approche passionnante du Machine Learning qui a pris de l’ampleur ces dernières années. C’est une méthode qui permet aux modèles d’apprendre des représentations riches et pertinentes à partir de données non étiquetées sans nécessiter la coûteuse et longue annotation humaine. En substance, il s’agit de demander aux données de se superviser elles-mêmes.
Le Problème des Données Étiquetées
Pour comprendre l’intérêt de l’AAS, il faut d’abord se rappeler que l’Apprentissage Supervisé traditionnel, malgré ses succès, repose sur la disponibilité de vastes jeux de données où chaque exemple est précisément étiqueté (un chat est étiqueté « chat », une tumeur « maligne », etc.). Or, dans le monde réel, les données non étiquetées sont pléthoriques, tandis que l’étiquetage est un goulot d’étranglement : il est cher, lent, et sujet à l’erreur.
Comment l’Apprentissage Auto-Supervisé Fonctionne-t-il ?
L’AAS se situe à la frontière entre l’apprentissage supervisé et l’apprentissage non supervisé. Il ne nécessite pas d’étiquettes externes, mais il crée ses propres signaux de supervision.
Le secret réside dans ce que l’on appelle les tâches prétextes (pretext tasks). Il s’agit de tâches artificielles, conçues pour obliger le modèle à comprendre la structure et les relations intrinsèques des données. En résolvant ces tâches « trompeuses », le modèle apprend des représentations de haute qualité qui peuvent ensuite être transférées à des tâches réelles et complexes.
L’Étape des Tâches Prétextes
Pour illustrer, voici quelques exemples concrets de tâches prétextes :
- En Traitement du Langage Naturel (NLP) :
- Masquage de Mots : On masque un mot dans une phrase, et le modèle doit prédire le mot manquant en se basant sur le contexte. C’est le principe de modèles célèbres comme BERT.
- Ordre des Phrases : On mélange l’ordre de deux phrases consécutives, et le modèle doit déterminer si elles sont dans le bon ordre ou non.
- En Vision par Ordinateur :
- Prédiction de Rotation : On fait pivoter une image à 90, 180 ou 270 degrés et on demande au modèle de prédire l’angle de rotation d’origine. Pour y arriver, le modèle doit apprendre à reconnaître les objets et leur orientation.
- Colorisation : On décolore une image en niveaux de gris et on demande au modèle de la recoloriser. Le modèle est contraint de comprendre ce que sont les objets pour leur attribuer la bonne couleur.
- Patchs de Contexte : On divise une image en plusieurs morceaux et le modèle doit déterminer la position relative des différents morceaux.
Le Transfert des Connaissances
Une fois que le modèle a été pré-entraîné sur des millions d’exemples non étiquetés grâce à ces tâches prétextes, il a déjà développé une connaissance profonde (des « bonnes caractéristiques ») des données. Cette connaissance est ensuite réutilisée (via l’apprentissage par transfert) pour des tâches supervisées réelles (comme la classification d’images ou d’avis clients), souvent avec seulement une petite fraction des données étiquetées nécessaires à l’origine. C’est là que l’AAS montre toute sa puissance.
Pourquoi c’est la « Matière Noire » de l’IA
L’AAS est souvent qualifié de « matière noire » de l’IA par certains experts comme Yann LeCun, car il imite plus fidèlement la façon dont les humains et les animaux apprennent : nous ne sommes pas nourris de millions d’étiquettes ; nous apprenons en explorant et en observant le monde, en prédisant l’issue des actions et en remplissant les blancs.
Ce type d’apprentissage a des implications majeures :
- Réduction des Coûts d’Étiquetage : Il rend l’IA beaucoup plus accessible dans les domaines où l’étiquetage est rare ou coûteux (comme la médecine ou les données satellitaires).
- Robustesse et Généralisation : Les représentations apprises sont souvent plus robustes et généralisables, permettant aux modèles de mieux performer sur des tâches et des jeux de données légèrement différents.
- Exploitation de Données Massives : Il permet d’exploiter les téraoctets de données non structurées disponibles sur le web ou au sein des entreprises (textes, images, vidéos) pour un pré-entraînement ultra-performant.
Le Self-Supervised Learning est sans aucun doute l’une des voies les plus prometteuses pour construire la prochaine génération de modèles d’IA, plus intelligents et plus autonomes.
Cet article a été rédigé par les experts AVISIA, pour approfondir ce sujet ou explorer comment cela pourrait bénéficier à votre entreprise, contactez nous.
Data contact
Avec notre expertise, faites parler vos données
