NLP Course documentation

Introduction

Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

Introduction

Ask a Question

Dans le chapitre 2 nous avons étudié comment utiliser les tokenizers et les modèles pré-entraînés pour faire des prédictions. Mais que faire si vous souhaitez finetuner un modèle pré-entraîné pour votre propre jeu de données ? C’est le sujet de ce chapitre ! Vous allez apprendre à :

  • savoir comment préparer un très grand jeu de données à partir du Hub,
  • savoir comment utiliser l’API de haut niveau Trainer pour finetuner un modèle,
  • savoir comment utiliser une boucle d’entraînement personnalisée,
  • savoir comment tirer parti de la bibliothèque 🤗 Accelerate pour exécuter facilement cette boucle d’entraînement personnalisée sur n’importe quelle configuration distribuée. configuration distribuée

Afin de télécharger vos checkpoints entraînés sur le Hub Hugging Face, vous aurez besoin d’un compte huggingface.co : créer un compte