Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Aprende Por Qué la Visualización de la Atención es Importante | Aplicando Transformers a Tareas de PLN
Transformers para Procesamiento de Lenguaje Natural

bookPor Qué la Visualización de la Atención es Importante

Desliza para mostrar el menú

Aquí tienes algunos ejemplos de imágenes de mapas de calor de atención para diferentes oraciones. Cada mapa de calor resalta en qué palabras se enfoca el modelo al procesar la entrada, revelando patrones en la distribución de la atención:

  • En una oración simple como "The cat sat on the mat", el mapa de calor de atención puede mostrar un fuerte enfoque entre "cat" y "sat", lo que indica que el modelo vincula el sujeto y la acción;
  • Para una pregunta como "What did the dog eat?", el mapa de calor podría resaltar la conexión entre "What" y "eat", ayudando a ver cómo el modelo identifica el fragmento de la respuesta;
  • En oraciones más complejas, los patrones de atención pueden revelar si el modelo está siguiendo dependencias de largo alcance, como referencias pronominales o cláusulas subordinadas.

Al estudiar estas visualizaciones, puedes identificar si el modelo está prestando atención a las partes correctas de la oración para la tarea en cuestión, lo cual es fundamental para tareas como respuesta a preguntas, traducción o análisis de sentimiento.

question mark

¿Cuál de las siguientes opciones describe mejor el principal beneficio de la visualización de la atención en los modelos Transformer?

Selecciona la respuesta correcta

¿Todo estuvo claro?

¿Cómo podemos mejorarlo?

¡Gracias por tus comentarios!

Sección 3. Capítulo 3

Pregunte a AI

expand

Pregunte a AI

ChatGPT

Pregunte lo que quiera o pruebe una de las preguntas sugeridas para comenzar nuestra charla

Sección 3. Capítulo 3
some-alt