Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Impara Cosa Compone un'Architettura Transformer | Fondamenti Dei Transformer
Transformer per l'elaborazione del linguaggio naturale

bookCosa Compone un'Architettura Transformer

Scorri per mostrare il menu

Un Transformer è composto da due parti principali: l'encoder e il decoder. L'encoder legge e riassume il testo di input, catturando il significato e il contesto di ogni parola in relazione alle altre. Il decoder utilizza poi questo riassunto, insieme alla propria attenzione verso le parole generate in precedenza, per produrre l'output finale, come una traduzione o un riassunto. Questa struttura consente ai Transformer di gestire una vasta gamma di compiti di NLP in modo più efficiente e accurato rispetto agli approcci tradizionali.

Note
Definizione

Encoder: elabora le sequenze di input riassumendone il significato e catturando le relazioni tra le parole tramite self-attention e livelli feed-forward.

Decoder: genera le sequenze di output, come traduzioni o previsioni, prestando attenzione sia agli output generati in precedenza sia alle rappresentazioni dell'encoder.

Il meccanismo di attenzione è una parte fondamentale dell'architettura Transformer che permette al modello di decidere quali parole in una sequenza sono più importanti durante l'elaborazione o la generazione del linguaggio. Si può pensare all'attenzione come a un modo in cui il modello "si concentra" su determinate parole mentre legge una frase, proprio come si presta maggiore attenzione a parole chiave quando si cerca di comprendere un'istruzione complessa.

Ad esempio, nella frase "The cat sat on the mat because it was tired", l'attenzione aiuta il modello a capire che "it" si riferisce a "the cat" analizzando le relazioni tra le parole. Questo processo funziona indipendentemente dalla posizione delle parole, rendendo l'attenzione centrale per il modo in cui i Transformer comprendono il linguaggio.

Di seguito è riportato un diagramma semplificato dell'architettura generale del Transformer, che evidenzia il flusso di informazioni tra encoder, decoder e meccanismi di attenzione:

Si può osservare come il testo di input venga prima incorporato e codificato posizionalmente prima di passare attraverso lo stack dell'encoder. L'output dell'encoder viene poi inviato allo stack del decoder, che utilizza sia la self-attention che l'attenzione encoder-decoder per generare l'output finale.

I Transformer hanno introdotto diverse innovazioni che alimentano i modelli NLP più avanzati di oggi:

  • Self-attention: cattura le relazioni tra tutte le parole in una sequenza, permettendo al modello di comprendere il contesto indipendentemente dall'ordine delle parole;
  • Elaborazione parallela: elabora ogni parola contemporaneamente, rendendo l'addestramento e l'inferenza molto più rapidi;
  • Assenza di ricorrenza o convoluzione: evita le limitazioni degli RNN e dei CNN, risultando in un design più semplice e scalabile;
  • Codifica posizionale: fornisce al modello la percezione dell'ordine delle parole, consentendogli di comprendere la struttura della sequenza.

Queste caratteristiche rendono i Transformer la base delle applicazioni all'avanguardia come traduzione automatica e riassunto di testo.

question mark

Quali dei seguenti sono i componenti principali dell'architettura Transformer?

Seleziona tutte le risposte corrette

Tutto è chiaro?

Come possiamo migliorarlo?

Grazie per i tuoi commenti!

Sezione 1. Capitolo 3

Chieda ad AI

expand

Chieda ad AI

ChatGPT

Chieda pure quello che desidera o provi una delle domande suggerite per iniziare la nostra conversazione

Sezione 1. Capitolo 3
some-alt