Utilisation de base terminée !
Bravo à vous pour avoir suivi le cours jusqu’ici ! Pour récapituler, dans ce chapitre vous avez :
- appris les blocs de construction de base d’un transformer,
- appris ce qui constitue un pipeline de tokenisation,
- vu comment utiliser un transformer en pratique,
- appris comment tirer parti d’un tokenizer pour convertir du texte en tenseurs compréhensibles par le modèle,
- configurer ensemble un tokenizer et un modèle afin de passer du texte aux prédictions,
- appris les limites des identifiants d’entrée et ce que sont que les masques d’attention,
- joué avec des méthodes de tokenizer polyvalentes et configurables.
À partir de maintenant, vous devriez être en mesure de naviguer librement dans la documentation 🤗 Transformers. Le vocabulaire vous semblera familier et vous avez vu les méthodes que vous utiliserez la plupart du temps.