Transformers documentation

BERTología

You are viewing v4.40.1 version. A newer version v4.46.2 is available.
Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

BERTología

Hay un creciente campo de estudio empeñado en la investigación del funcionamiento interno de los transformers de gran escala como BERT (que algunos llaman “BERTología”). Algunos buenos ejemplos de este campo son:

Para asistir al desarrollo de este nuevo campo, hemos incluido algunas features adicionales en los modelos BERT/GPT/GPT-2 para ayudar a acceder a las representaciones internas, principalmente adaptado de la gran obra de Paul Michel (https://arxiv.org/abs/1905.10650):

  • accediendo a todos los hidden-states de BERT/GPT/GPT-2,
  • accediendo a todos los pesos de atención para cada head de BERT/GPT/GPT-2,
  • adquiriendo los valores de salida y gradientes de las heads para poder computar la métrica de importancia de las heads y realizar la poda de heads como se explica en https://arxiv.org/abs/1905.10650.

Para ayudarte a entender y usar estas features, hemos añadido un script específico de ejemplo: bertology.py mientras extraes información y cortas un modelo pre-entrenado en GLUE.

< > Update on GitHub