L'apprentissage en quelques étapes expliqué : transformer l'IA avec un minimum de données
Publié: 2025-01-13L'apprentissage en quelques étapes (FSL) transforme l'apprentissage automatique (ML) en permettant aux modèles d'apprendre et de générer des résultats précis à partir d'une poignée d'exemples seulement, contrairement aux méthodes traditionnelles qui nécessitent de vastes ensembles de données. Ce guide explore le fonctionnement du FLS, ses applications, les comparaisons avec l'apprentissage zéro-shot (ZSL), ainsi que ses défis et son potentiel.
Table des matières
- Qu’est-ce que l’apprentissage en quelques étapes ?
- Apprentissage en quelques coups ou invite en quelques coups : quelle est la différence ?
- Comment fonctionne l'apprentissage en quelques coups
- Apprentissage en quelques étapes ou apprentissage en plusieurs étapes
- Applications pour un apprentissage en quelques étapes
- Avantages de l'apprentissage en quelques étapes
- Les défis de l'apprentissage en quelques étapes
Qu’est-ce que l’apprentissage en quelques étapes (FLS) ?
L'apprentissage en quelques étapes (FSL) fait référence à une famille de techniques de ML conçues pour créer des modèles adaptables capables de générer des résultats précis après avoir été formés sur seulement quelques exemples étiquetés par catégorie. Lorsqu’un seul exemple étiqueté par catégorie est disponible, on parle d’apprentissage ponctuel. Par exemple, les smartphones modernes exploitent FSL pour reconnaître le visage d'un utilisateur avec seulement quelques photos, voire une seule photo.
FSL est particulièrement utile car il permet aux modèles ML de résoudre des problèmes pour lesquels les données sont rares, comme c'est souvent le cas dans le monde réel. Les modèles FLS peuvent également gérer un plus large éventail de tâches que les modèles d’apprentissage supervisé traditionnels, car ils apprennent à généraliser. Cela permet d'économiser des ressources, car il est souvent moins coûteux et plus rapide d'adapter un modèle FSL à une nouvelle tâche que de former un modèle entièrement nouveau à partir de zéro. Le FLS est souvent décrit comme apprenant aux modèles de ML à « penser » davantage comme des humains en apprenant à faire abstraction d’une poignée d’exemples seulement.
FSL est souvent utilisé pour les applications de vision par ordinateur, mais est également déployé en robotique et en traitement du langage naturel (NLP). Par exemple, le FLS a été utilisé pour traduire d’anciens textes sumériens – une tâche utile étant donné que les experts en langue sumérienne sont rares. Les modèles FSL du traducteur sumérien ont appris à traduire à partir d'un petit ensemble d'échantillons de tablettes cunéiformes de haute qualité. Ils ont ensuite traduit avec précision de grandes quantités de textes inconnus pour que les chercheurs les analysent.
Apprentissage en quelques coups ou invite en quelques coups : quelle est la différence ?
Le FSL et les invites en quelques tirs sont des concepts liés en ML et en PNL, mais ils servent des objectifs différents.
Apprentissage en quelques coups
FSL est une technique de formation de modèles qui apprend aux modèles à classer les données invisibles. Il fonctionne en ajustant les paramètres du modèle pour s'adapter à de nouveaux types de tâches de classification, en s'appuyant sur des connaissances antérieures. Le FLS est lié à l'apprentissage supervisé, mais la différence est que les modèles FLS sont formés sur un ensemble de données beaucoup plus limité.
Invite à quelques tirs
Les invites en quelques étapes sont une façon de travailler avec de grands modèles de langage (LLM). Il utilise l'apprentissage en contexte, un type d'apprentissage dans lequel le modèle utilise les informations de l'invite, telles que le format et le sentiment, pour prédire un résultat. Contrairement au FLS et à l’apprentissage supervisé traditionnel, l’incitation en quelques étapes n’implique pas de modification des paramètres du LLM. Lorsque vous utilisez des invites en quelques étapes, vous fournissez au LLM plusieurs exemples du type de réponse que vous recherchez. Comme le FSL, les invites en quelques étapes consistent à aider un modèle à généraliser en l'exposant à quelques exemples d'une tâche similaire.
Comment fonctionne l'apprentissage en quelques coups
L'apprentissage en quelques étapes implique deux étapes : premièrement, les modèles sont pré-entraînés sur un ensemble de données général pour en savoir plus sur le monde. Ensuite, ils subissent une adaptation des tâches, où les modèles apprennent à généraliser à partir de petits échantillons de données.
Pré-formation
La première étape de la plupart des modèles FLS commence par un pré-entraînement sur un grand ensemble de données étiquetées, tout comme l'apprentissage supervisé. Le modèle effectue une extraction de fonctionnalités sur cet ensemble de données et apprend à classer des exemples en développant une base de connaissances sur les modèles et les relations dans les données.
Adaptation des tâches
Après la pré-formation, l'étape suivante du FLS consiste à entraîner le modèle pour qu'il se généralise à de nouvelles tâches de classification. C'est ce qu'on appelle l'adaptation aux tâches et se déroule sur plusieurs épisodes de formation.
Dans chaque épisode, il existe un ensemble de supports de deux à cinq exemples que le modèle doit étudier et un ensemble de requêtes avec des cibles invisibles que le modèle doit tenter de classer. Ce cadre est appelé classification N-way K-shot, dans laquelleNfait référence au nombre de catégories (appelées classes) etKfait référence au nombre d'exemples étiquetés (plans) de chaque catégorie.
Tous les modèles FSL sont conçus pour réaliser une adaptation aux tâches. Au sein de l’ensemble des techniques FLS, l’un des domaines de recherche les plus importants et les plus passionnants est le méta-apprentissage.
Approches de méta-apprentissage
Le méta-apprentissage consiste à exposer le modèle à des tâches similaires ou liées à la tâche de classification pour laquelle le modèle a été initialement formé. Il n'obtient que quelques exemples de chaque nouvelle tâche, mais à partir de ceux-ci, il apprend à généraliser en développant un méta-cadre indiquant quoi faire lorsqu'une tâche inconnue lui est confiée.
D’une manière générale, il existe trois types d’approches du méta-apprentissage :
- Apprentissage basé sur l'optimisation :cela inclut des approches qui entraînent des modèles pour améliorer rapidement leurs paramètres. Certains d'entre eux utilisent un processus en deux étapes dans lequel un apprenant est formé à une tâche spécifique, puis un méta-apprenant utilise la fonction de perte de l'étape de l'apprenant pour améliorer les paramètres du modèle pour la tâche suivante.
- Apprentissage au niveau métrique :utilisé principalement pour les tâches de vision par ordinateur, l'apprentissage métrique fonctionne en cartographiant les entités extraites dans un espace d'intégration et en utilisant la distance entre les entités sur la carte pour générer une probabilité que deux images soient similaires.
- Méta-apprentissage indépendant du modèle (MAML) :dans MAML, l'objectif du processus de formation est de réduire le nombre d'étapes de gradient requises pour optimiser les paramètres du modèle, quelle que soit la tâche. MAML analyse les processus d'apprentissage des tâches, déduit des modèles de fonctionnement du processus et développe des modèles qui agissent comme des raccourcis, accélérant le processus d'apprentissage à chaque nouvelle tâche qu'il voit.
La liste des architectures de modèles qui utilisent des techniques de méta-apprentissage ne cesse de s'allonger à mesure que les chercheurs conçoivent de nouvelles façons d'aider les modèles à devenir adaptables.
Approches sans méta-apprentissage
Il existe également des méthodes FLS et adjacentes au FLS qui n’utilisent pas de méta-apprentissage. FSL est parfois déployé aux côtés de ces techniques pour créer une approche hybride :
- Apprentissage par transfert :cette méthode consiste à prendre un modèle pré-entraîné et à affiner les couches externes du réseau neuronal. L'apprentissage par transfert est plus utile dans les scénarios où la tâche que vous souhaitez que le modèle effectue est proche de la tâche sur laquelle il a déjà été formé.
- Augmentation des données :le FSL peut être renforcé grâce à l'augmentation des données, qui implique d'utiliser vos données limitées comme base pour créer des données synthétiques à l'aide de réseaux contradictoires génératifs (GAN) ou d'auto-encodeurs variationnels pour augmenter le nombre d'échantillons pour votre ensemble d'entraînement.
Apprentissage en quelques étapes ou apprentissage en plusieurs étapes
L'apprentissage en plusieurs étapes (ou apprentissage ponctuel) est souvent utilisé dans des scénarios où les données sont limitées mais de haute qualité pour entraîner un modèle. Mais qu’en est-il si vous ne disposez d’aucune donnée de haute qualité ? Dans l'apprentissage zéro-shot (ZSL), vous ne donnez aucun exemple à votre modèle et lui demandez plutôt de s'appuyer uniquement sur des connaissances préalables et des intégrations sémantiques sur lesquelles il peut s'appuyer pour gérer des tâches inconnues.
ZSL offre une solution rapide et flexible pour gérer des situations avec très peu de données. Cependant, les modèles ZSL peuvent avoir des difficultés avec le changement de domaine (c'est-à-dire qu'ils peuvent avoir des difficultés si le type de données qu'ils voient est trop différent de leur base de connaissances) et il peut être difficile d'évaluer les performances d'un modèle.
Applications pour un apprentissage en quelques étapes
Les applications du FLS sont vastes et en constante évolution, mais il a un énorme potentiel pour être utile dans des domaines où il existe relativement peu d’exemples disponibles. Certains domaines de recherche récents pour les cas d'utilisation incluent :
- Diagnostics médicaux :le FLS peut faciliter la classification des tumeurs basée sur l'image lorsqu'il n'y a pas suffisamment de données étiquetées pour que les modèles d'apprentissage supervisés traditionnels soient utiles.
- Télédétection :FSL peut accélérer les tâches de télédétection, telles que l'utilisation d'images de drones pour évaluer les impacts des catastrophes environnementales.
- Prototypage de voitures de course F1 :les modèles FSL sont pré-entraînés sur la dynamique des fluides et de l'aérodynamique ainsi que sur d'autres données pour des centaines de voitures sur des milliers de courses. Ils utilisent ensuite FSL pour prédire l’aérodynamisme et la dégradation des pièces des nouveaux prototypes de voitures sur la base d’un petit nombre d’essais coûteux.
- Traduction automatique :le FLS a contribué à créer des traducteurs automatiques plus efficaces qui utilisent très peu de saisie et peuvent capturer les nuances dialectales et les variations régionales avec une précision sans précédent.
- Robotique :le FLS est utilisé pour apprendre aux robots à saisir des objets en regardant des démonstrations humaines.
- Analyse des sentiments :un modèle FSL initialement formé sur les avis d'hôtels peut être utilisé pour classer les avis de restaurants.
FSL fait également partie de la quête visant à développer une intelligence artificielle générale, car elle imite plus fidèlement la façon dont les humains abordent la résolution de problèmes.
Avantages de l'apprentissage en quelques étapes
Les principaux avantages des modèles FSL sont qu’ils peuvent résoudre des problèmes pour lesquels des données limitées sont disponibles et qu’ils peuvent contribuer à réduire les ressources informatiques et financières nécessaires à la formation de nouveaux modèles.
Généraliser avec des données limitées
Les modèles FSL peuvent le faire car ils ne mémorisent pas les images, les sons ou le langage à travers de nombreuses itérations. Au lieu de cela, ils apprennent à analyser rapidement les similitudes et les différences. Alors que les modèles traditionnels excellent dans des tâches très spécifiques comme l’identification d’une espèce particulière d’oiseau ou la correspondance d’empreintes digitales, ils échouent dès que vous leur demandez d’accomplir une autre tâche.
Utiliser moins de ressources
Les techniques telles que MAML constituent un moyen beaucoup plus efficace d'utiliser les ressources de formation de modèles. Ils permettent d’adapter rapidement et efficacement des modèles à grande échelle très coûteux à des cas d’utilisation spécifiques sans étapes de recyclage coûteuses. L’un des grands défis de l’apprentissage automatique est la quantité de données nécessaire pour entraîner un modèle afin de produire des résultats utiles, à la fois en termes de compilation de grands ensembles de données de haute qualité et en termes de temps et de calculs nécessaires. FSL promet de résoudre de nombreux problèmes du monde réel où les données sont rares ou traversent les domaines.
Les défis de l'apprentissage en quelques étapes
Malgré ses promesses, le FSL présente des défis qui peuvent nuire à l’efficacité du modèle.
Surapprentissage
L'utilisation d'ensembles de données limités peut entraîner un surajustement, dans lequel le modèle s'aligne trop étroitement sur les données de ses ensembles d'apprentissage et a du mal à se généraliser. Il s'agit d'un problème familier en ML qui se produit plus fréquemment avec FSL qu'avec d'autres approches de ML. Un modèle FSL surajusté fonctionnera bien sur les données de test, mais n'identifiera pas de nouvelles catégories lorsqu'il sera présenté avec des exemples concrets. Pour éviter cela, il est important d’avoir de la diversité dans les échantillons limités utilisés pour l’entraînement à quelques tirs. L'augmentation des données, évoquée ci-dessus, tente d'atténuer le surapprentissage en synthétisant davantage d'exemples pour la formation.
Qualité des données
Des données de haute qualité, tant lors de la pré-formation que lors de la phase d'apprentissage en quelques étapes, sont importantes. Les modèles FSL sont plus facilement gênés par des données bruitées et mal étiquetées. Ils ne fonctionnent pas non plus lorsque les données contiennent trop d'un type et pas d'un autre ou comportent trop de fonctionnalités pour que le modèle puisse les analyser ; dans ces cas, ils ont tendance à devenir trop complexes. Les chercheurs peuvent parfois résoudre ces problèmes en utilisant des techniques de régularisation, qui permettent de lisser les données pour aider un modèle à déterminer ce à quoi il faut prêter attention et ce qu'il faut ignorer.