Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Hvorfor Positionskodning Er Vigtig | Forståelse af Transformer-Grundlag
Transformers til Naturlig Sprogbehandling

bookHvorfor Positionskodning Er Vigtig

Stryg for at vise menuen

Uden en metode til at kode positionen af hvert token, ville en Transformer opfatte inputtet som en pose af ord, hvilket medfører tab af vigtig information om sætningsstruktur og betydning. For eksempel indeholder sætningerne "the cat chased the mouse" og "the mouse chased the cat" de samme ord, men formidler helt forskellige betydninger på grund af ordstillingen. For at løse dette introduceres positionel kodning for at tilføre information om rækkefølgen af tokens til modellen, så den kan skelne mellem forskellige arrangementer af de samme ord og dermed bedre forstå kontekst og betydning af tekst.

Der findes flere strategier til at tilføje positionsinformation til token-embeddings i Transformers. De to mest almindelige er sinusformet og lært positionel kodning. Hver tilgang har unikke egenskaber og afvejninger, især når de anvendes på forskellige NLP-opgaver.

question mark

Hvilket af følgende forklarer bedst, hvorfor positionel kodning er nødvendig i Transformers?

Vælg det korrekte svar

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 1. Kapitel 6

Spørg AI

expand

Spørg AI

ChatGPT

Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat

Sektion 1. Kapitel 6
some-alt