Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Apprendre Why Attention Visualization Matters | Application des Transformers aux Tâches NLP
Transformers pour le Traitement du Langage Naturel

bookWhy Attention Visualization Matters

Glissez pour afficher le menu

Voici quelques exemples d’images de cartes thermiques d’attention pour différentes phrases. Chaque carte met en évidence les mots sur lesquels le modèle se concentre lors du traitement de l’entrée, révélant des schémas dans la distribution de l’attention :

  • Dans une phrase simple comme "The cat sat on the mat", la carte thermique d’attention peut montrer une forte focalisation entre "cat" et "sat", indiquant que le modèle relie le sujet et l’action ;
  • Pour une question telle que "What did the dog eat?", la carte peut mettre en avant la connexion entre "What" et "eat", ce qui permet de voir comment le modèle identifie la portion de réponse ;
  • Dans des phrases plus complexes, les schémas d’attention peuvent révéler si le modèle suit des dépendances à longue portée, telles que les références pronominales ou les propositions subordonnées.

En étudiant ces visualisations, il est possible d’identifier si le modèle porte attention aux bonnes parties de la phrase pour la tâche concernée, ce qui est essentiel pour des tâches comme la réponse à des questions, la traduction ou l’analyse de sentiment.

question mark

Lequel des éléments suivants décrit le mieux le principal avantage de la visualisation de l’attention dans les modèles Transformer ?

Sélectionnez la réponse correcte

Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 3. Chapitre 3

Demandez à l'IA

expand

Demandez à l'IA

ChatGPT

Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion

Section 3. Chapitre 3
some-alt