Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen How Fine-Tuning Improves Transformers | Anwendung von Transformern auf NLP-Aufgaben
Transformer für Natural Language Processing

bookHow Fine-Tuning Improves Transformers

Swipe um das Menü anzuzeigen

Note
Definition

Feinabstimmung ist eine Form des Transferlernens, bei der ein vortrainierter Transformer – der bereits mit Sprachstrukturen vertraut ist – auf einem kleineren, gelabelten Datensatz weiter trainiert wird. Dieser Prozess ermöglicht es dem Modell, sein umfassendes Wissen an spezifische Aufgaben wie text classification, sentiment analysis oder named entity recognition anzupassen.

Der Feinabstimmungs-Workflow

Folgende Schritte sind notwendig, um ein vortrainiertes Modell erfolgreich anzupassen und typische Fehler im NLP zu vermeiden:

  • Vorbereitung des Datensatzes durch Bereinigung des Textes und Umwandlung der Labels in ein numerisches Format;
  • Tokenisierung des Eingabetextes mit demselben Tokenizer, der auch beim ursprünglichen Training des Modells verwendet wurde;
  • Laden des vortrainierten Modells und Ersetzen der finalen Ausgabeschicht durch einen neuen "Head", der für die jeweilige Aufgabe konzipiert ist;
  • Training des Modells auf den eigenen Daten mit einer sehr niedrigen Lernrate, um ein "katastrophales Vergessen" des ursprünglichen Wissens zu verhindern;
  • Bewertung der Leistung mit einem separaten Testdatensatz, um sicherzustellen, dass das Modell gut auf neue Texte generalisiert.

Verständnis der Standard-Architekturparameter

Bei der Konfiguration eines Transformer-Modells werden bestimmte Parameter verwendet, um Leistung und Recheneffizienz auszubalancieren:

  • Hidden size: Gibt die Dimensionalität des Vektors an, der zur Repräsentation jedes Tokens verwendet wird.
    • Ein Wert von 768 ist Standard für "Base"-Modelle, um komplexe sprachliche Muster zu erfassen;
  • Attention heads: Diese Anzahl bestimmt, wie viele verschiedene "Perspektiven" das Modell zur Analyse von Beziehungen zwischen Wörtern nutzt.
    • 12 Heads ermöglichen es dem Modell, gleichzeitig auf verschiedene grammatikalische und semantische Merkmale zu achten;
  • Intermediate size: In der Regel auf das Vierfache der Hidden Size gesetzt, in unserem Fall 3072, bestimmt dies die Breite der Feed-Forward-Netzwerkschichten;
  • Max position embeddings: Dieser Wert definiert die maximale Sequenzlänge bzw. die Gesamtanzahl der Tokens, die das Modell in einer Eingabe verarbeiten kann, üblicherweise 512;
  • Vocab size 30522: Gibt die Gesamtanzahl der eindeutigen Tokens an, einschließlich Wörter und Subwörter, die das Modell erkennen und verarbeiten kann;
  • Learning rate 2e-5: Dieser kleine Wert ist optimal für die Feinabstimmung, da er verhindert, dass das Modell das während des Vortrainings erworbene Wissen überschreibt.

1. Was stellt der Parameter "Hidden Size" in einer Transformer-Modellarchitektur dar?

2. Welcher der folgenden Schritte ist KEIN empfohlener Bestandteil des Fine-Tuning-Workflows für Transformer?

question mark

Was stellt der Parameter "Hidden Size" in einer Transformer-Modellarchitektur dar?

Wählen Sie die richtige Antwort aus

question mark

Welcher der folgenden Schritte ist KEIN empfohlener Bestandteil des Fine-Tuning-Workflows für Transformer?

Wählen Sie die richtige Antwort aus

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 3. Kapitel 5

Fragen Sie AI

expand

Fragen Sie AI

ChatGPT

Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen

Abschnitt 3. Kapitel 5
some-alt