Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Impara Come il fine-tuning migliora i transformer | Applicare i Transformers ai Compiti NLP
Transformer per l'elaborazione del linguaggio naturale

bookCome il fine-tuning migliora i transformer

Scorri per mostrare il menu

Note
Definizione

Fine-tuning è una forma di apprendimento trasferito in cui si utilizza un Transformer pre-addestrato, già familiare con le strutture linguistiche, e lo si addestra ulteriormente su un dataset più piccolo e etichettato. Questo processo consente al modello di adattare la sua conoscenza generale a compiti specifici come text classification, sentiment analysis o named entity recognition.

Il flusso di lavoro del Fine-Tuning

Fasi da seguire per adattare con successo un modello pre-addestrato evitando errori comuni nell'NLP:

  • Preparazione del dataset tramite pulizia del testo e conversione delle etichette in formato numerico;
  • Tokenizzazione del testo di input utilizzando lo stesso tokenizer impiegato durante l'addestramento iniziale del modello;
  • Caricamento del modello pre-addestrato e sostituzione dello strato di output finale con una nuova "testa" progettata per il compito specifico;
  • Addestramento del modello sui propri dati utilizzando un learning rate molto basso per evitare la "catastrophic forgetting" delle conoscenze originali;
  • Valutazione delle prestazioni tramite un set di test separato per garantire che il modello generalizzi bene su nuovi testi.

Comprensione dei parametri standard dell'architettura

Durante la configurazione di un modello Transformer, vengono utilizzati parametri specifici per bilanciare prestazioni ed efficienza computazionale:

  • Hidden size: rappresenta la dimensionalità del vettore utilizzato per rappresentare ciascun token.
  • Una dimensione di 768 è lo standard per i modelli "Base" per catturare pattern linguistici complessi;
  • Attention heads: questo numero determina quante diverse "prospettive" il modello utilizza per analizzare le relazioni tra le parole.
    • 12 heads permettono al modello di concentrarsi contemporaneamente su vari aspetti grammaticali e semantici;
  • Intermediate size: solitamente impostato a quattro volte l'hidden size, nel nostro caso 3072, determina l'ampiezza dei livelli della rete feed-forward;
  • Max position embeddings: questo valore definisce la lunghezza massima della sequenza o il numero totale di token che il modello può processare in un singolo input, solitamente 512;
  • Vocab size 30522: rappresenta il numero totale di token unici, inclusi parole e sotto-parole, che il modello può riconoscere e processare;
  • Learning rate 2e-5: questo valore ridotto è ottimale per il fine-tuning perché impedisce al modello di sovrascrivere le conoscenze acquisite durante il pre-addestramento.

1. Cosa rappresenta il parametro "hidden size" nell'architettura di un modello Transformer?

2. Quale delle seguenti NON è una fase raccomandata nel workflow di fine-tuning per i Transformer?

question mark

Cosa rappresenta il parametro "hidden size" nell'architettura di un modello Transformer?

Seleziona la risposta corretta

question mark

Quale delle seguenti NON è una fase raccomandata nel workflow di fine-tuning per i Transformer?

Seleziona la risposta corretta

Tutto è chiaro?

Come possiamo migliorarlo?

Grazie per i tuoi commenti!

Sezione 3. Capitolo 5

Chieda ad AI

expand

Chieda ad AI

ChatGPT

Chieda pure quello che desidera o provi una delle domande suggerite per iniziare la nostra conversazione

Sezione 3. Capitolo 5
some-alt