Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Typer af Vektorrummodeller | Grundlæggende Tekstmodeller
Introduktion til NLP

bookTyper af Vektorrummodeller

Vektorrumsmodeller kan kategoriseres efter måden, de repræsenterer tekst på, fra simple frekvensbaserede metoder til mere avancerede, kontekstafhængige indlejringer. Hver tilgang har sine egne fordele og egner sig til forskellige typer NLP-opgaver.

Bag of Words

Bag of words (BoW) er en vektorrumsmodel, der repræsenterer dokumenter som vektorer, hvor hver dimension svarer til et unikt ord. Den kan være binær (angiver om et ord er til stede) eller frekvensbaseret (angiver antallet af forekomster af et ord).

Her er et eksempel på en frekvensbaseret BoW:

Som det ses, repræsenteres hvert dokument af en vektor, hvor hver dimension svarer til frekvensen af et bestemt ord i det pågældende dokument. I tilfælde af en binær bag of words-model vil hver vektor kun indeholde 0 eller 1 for hvert ord, hvilket angiver dets fravær eller tilstedeværelse.

Note
Bemærk

Tekstforbehandling er et nødvendigt trin før anvendelse af BoW eller lignende modeller.

TF-IDF

TF-IDF (term frequency-inverse document frequency)-modellen udvider bag-of-words (BoW)-tilgangen ved at justere ordfrekvenser baseret på deres forekomst på tværs af alle dokumenter. Den fremhæver ord, der er unikke for et dokument, og giver dermed mere specifik indsigt i dokumentets indhold.

Dette opnås ved at kombinere term frequency (antallet af gange et ord optræder i et dokument) med inverse document frequency (et mål for, hvor almindeligt eller sjældent et ord er i hele datasættet).

Her er resultatet af at anvende TF-IDF på dokumenterne fra det forrige eksempel:

De resulterende vektorer, beriget med TF-IDF, viser større variation og giver dybere indsigt i dokumentets indhold.

Ordbeddinger og dokumentembeddinger

Ordbeddinger kortlægger individuelle ord til tætte vektorer i et lavdimensionelt, kontinuerligt rum, hvilket indfanger semantiske ligheder, som ikke er direkte fortolkelige.

Dokumentembeddinger genererer derimod tætte vektorer, der repræsenterer hele dokumenter, og indfanger deres overordnede semantiske betydning.

Note
Bemærk

Dimensionaliteten (størrelsen) af embeddinger vælges typisk ud fra projektkrav og tilgængelige beregningsressourcer. Valg af den rette størrelse er afgørende for at opnå en balance mellem at indfange rig semantisk information og opretholde model-effektivitet.

Her er et eksempel på, hvordan ordbeddinger for ordene "cat", "kitten", "dog" og "house" kunne se ud:

Selvom de numeriske værdier i denne tabel er vilkårlige, illustrerer de, hvordan indlejringer kan repræsentere meningsfulde relationer mellem ord.

I virkelige anvendelser læres sådanne indlejringer ved at træne en model på et stort tekstkorpus, hvilket gør det muligt at opdage subtile mønstre og semantiske relationer i naturligt sprog.

Note
Læs Mere

En yderligere udvikling inden for tætte repræsentationer, kontekstuelle indlejringer (genereret af modeller som BERT og GPT), tager højde for den kontekst, hvori et ord optræder, for at generere dets vektor. Dette betyder, at det samme ord kan have forskellige indlejringer afhængigt af dets anvendelse i forskellige sætninger, hvilket giver en nuanceret forståelse af sproget.

question-icon

Sorter modellerne efter kompleksitet, fra den simpleste til den mest komplekse.




Click or drag`n`drop items and fill in the blanks

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 3. Kapitel 2

Spørg AI

expand

Spørg AI

ChatGPT

Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat

Suggested prompts:

Can you explain the main differences between BoW, TF-IDF, and embeddings?

What are some practical applications for each of these vector space models?

How do I choose which vector space model to use for my NLP task?

Awesome!

Completion rate improved to 3.45

bookTyper af Vektorrummodeller

Stryg for at vise menuen

Vektorrumsmodeller kan kategoriseres efter måden, de repræsenterer tekst på, fra simple frekvensbaserede metoder til mere avancerede, kontekstafhængige indlejringer. Hver tilgang har sine egne fordele og egner sig til forskellige typer NLP-opgaver.

Bag of Words

Bag of words (BoW) er en vektorrumsmodel, der repræsenterer dokumenter som vektorer, hvor hver dimension svarer til et unikt ord. Den kan være binær (angiver om et ord er til stede) eller frekvensbaseret (angiver antallet af forekomster af et ord).

Her er et eksempel på en frekvensbaseret BoW:

Som det ses, repræsenteres hvert dokument af en vektor, hvor hver dimension svarer til frekvensen af et bestemt ord i det pågældende dokument. I tilfælde af en binær bag of words-model vil hver vektor kun indeholde 0 eller 1 for hvert ord, hvilket angiver dets fravær eller tilstedeværelse.

Note
Bemærk

Tekstforbehandling er et nødvendigt trin før anvendelse af BoW eller lignende modeller.

TF-IDF

TF-IDF (term frequency-inverse document frequency)-modellen udvider bag-of-words (BoW)-tilgangen ved at justere ordfrekvenser baseret på deres forekomst på tværs af alle dokumenter. Den fremhæver ord, der er unikke for et dokument, og giver dermed mere specifik indsigt i dokumentets indhold.

Dette opnås ved at kombinere term frequency (antallet af gange et ord optræder i et dokument) med inverse document frequency (et mål for, hvor almindeligt eller sjældent et ord er i hele datasættet).

Her er resultatet af at anvende TF-IDF på dokumenterne fra det forrige eksempel:

De resulterende vektorer, beriget med TF-IDF, viser større variation og giver dybere indsigt i dokumentets indhold.

Ordbeddinger og dokumentembeddinger

Ordbeddinger kortlægger individuelle ord til tætte vektorer i et lavdimensionelt, kontinuerligt rum, hvilket indfanger semantiske ligheder, som ikke er direkte fortolkelige.

Dokumentembeddinger genererer derimod tætte vektorer, der repræsenterer hele dokumenter, og indfanger deres overordnede semantiske betydning.

Note
Bemærk

Dimensionaliteten (størrelsen) af embeddinger vælges typisk ud fra projektkrav og tilgængelige beregningsressourcer. Valg af den rette størrelse er afgørende for at opnå en balance mellem at indfange rig semantisk information og opretholde model-effektivitet.

Her er et eksempel på, hvordan ordbeddinger for ordene "cat", "kitten", "dog" og "house" kunne se ud:

Selvom de numeriske værdier i denne tabel er vilkårlige, illustrerer de, hvordan indlejringer kan repræsentere meningsfulde relationer mellem ord.

I virkelige anvendelser læres sådanne indlejringer ved at træne en model på et stort tekstkorpus, hvilket gør det muligt at opdage subtile mønstre og semantiske relationer i naturligt sprog.

Note
Læs Mere

En yderligere udvikling inden for tætte repræsentationer, kontekstuelle indlejringer (genereret af modeller som BERT og GPT), tager højde for den kontekst, hvori et ord optræder, for at generere dets vektor. Dette betyder, at det samme ord kan have forskellige indlejringer afhængigt af dets anvendelse i forskellige sætninger, hvilket giver en nuanceret forståelse af sproget.

question-icon

Sorter modellerne efter kompleksitet, fra den simpleste til den mest komplekse.




Click or drag`n`drop items and fill in the blanks

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 3. Kapitel 2
some-alt