Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Hva Består En Transformer-Arkitektur Av | Forståelse av transformer-grunnprinsipper
Transformers for Naturlig Språkprosessering

bookHva Består En Transformer-Arkitektur Av

Sveip for å vise menyen

En Transformer består av to hoveddeler: encoder og decoder. Encoderen leser og oppsummerer innteksten, og fanger opp betydningen og konteksten til hvert ord i forhold til de andre. Decoderen bruker deretter denne oppsummeringen, sammen med egen oppmerksomhet til tidligere genererte ord, for å produsere det endelige resultatet – for eksempel en oversettelse eller et sammendrag. Denne utformingen gjør det mulig for Transformers å håndtere et bredt spekter av NLP-oppgaver mer effektivt og nøyaktig enn tradisjonelle tilnærminger.

Note
Definisjon

Encoder: behandler innsekvenser ved å oppsummere deres betydning og fange relasjoner mellom ord ved hjelp av selvoppmerksomhet og feed-forward-lag.

Decoder: genererer utsekvenser, som oversettelser eller prediksjoner, ved å rette oppmerksomheten mot både tidligere genererte utdata og encoderens representasjoner.

Oppmerksomhetsmekanismen er en kjernekomponent i Transformer-arkitekturen som gjør det mulig for modellen å avgjøre hvilke ord i en sekvens som er viktigst ved behandling eller generering av språk. Du kan se på oppmerksomhet som en måte for modellen å "fokusere" på bestemte ord mens den leser en setning, omtrent som du selv legger ekstra merke til nøkkelord når du prøver å forstå en kompleks instruksjon.

For eksempel, i setningen "The cat sat on the mat because it was tired," hjelper oppmerksomhet modellen med å finne ut at "it" refererer til "the cat" ved å se på relasjonene mellom ordene. Denne prosessen fungerer uavhengig av ordposisjon, noe som gjør oppmerksomhet sentralt for hvordan Transformers forstår språk.

Nedenfor vises et forenklet diagram av den overordnede Transformer-arkitekturen, som fremhever informasjonsflyten mellom encoder, decoder og oppmerksomhetsmekanismer:

Her ser du hvordan inndata først blir innebygd og posisjonelt kodet før de sendes gjennom encoder-stakken. Utdataene fra encoderen mates deretter inn i decoder-stakken, som bruker både egen selvoppmerksomhet og encoder-decoder-oppmerksomhet for å generere sluttresultatet.

Transformers introduserte flere innovasjoner som driver dagens mest avanserte NLP-modeller:

  • Selvoppmerksomhet: fanger opp relasjoner mellom alle ord i en sekvens, slik at modellen forstår kontekst uavhengig av ordrekkefølge;
  • Parallell prosessering: behandler hvert ord samtidig, noe som gjør trening og inferens mye raskere;
  • Ingen rekurrens eller konvolusjon: unngår begrensningene til RNN-er og CNN-er, noe som gir et enklere og mer skalerbart design;
  • Posisjonell koding: gir modellen en forståelse av ordrekkefølge, slik at den kan tolke sekvensstruktur.

Disse egenskapene gjør Transformers til ryggraden i moderne applikasjoner som maskinoversettelse og tekstsammendrag.

question mark

Hvilke av følgende er hovedkomponenter i Transformer-arkitekturen?

Velg alle riktige svar

Alt var klart?

Hvordan kan vi forbedre det?

Takk for tilbakemeldingene dine!

Seksjon 1. Kapittel 3

Spør AI

expand

Spør AI

ChatGPT

Spør om hva du vil, eller prøv ett av de foreslåtte spørsmålene for å starte chatten vår

Seksjon 1. Kapittel 3
some-alt