Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Oppiskele Parametrien Löytäminen | Logistinen Regressio
Luokittelu Pythonilla

bookParametrien Löytäminen

Logistinen regressio vaatii tietokoneelta vain parhaiden parametrien ββ oppimista. Tätä varten on määriteltävä, mitä "parhaat parametrit" tarkoittavat. Palataanpa siihen, miten malli toimii: se ennustaa pp - todennäköisyyden kuulua luokkaan 1:

p=σ(z)=σ(β0+β1x1+...)p = \sigma (z) = \sigma (\beta_0 + \beta_1x_1 + ...)

Missä

σ(z)=11+ez\sigma (z) = \frac{1}{1 + e^{-z}}

On selvää, että malli, jolla on hyvät parametrit, ennustaa korkean (lähellä 1) pp arvon havainnoille, jotka todella kuuluvat luokkaan 1, ja matalan (lähellä 0) pp arvon havainnoille, joiden todellinen luokka on 0.

Mallin hyvyyden tai huonouden mittaamiseen käytetään kustannusfunktiota. Lineaarisessa regressiossa käytettiin MSE:tä (keskineliövirhe) kustannusfunktiona. Tällä kertaa käytetään eri funktiota:

Tässä pp edustaa mallin ennustamaa todennäköisyyttä kuulua luokkaan 1, kun taas yy tarkoittaa todellista tavoitearvoa.

Tämä funktio ei ainoastaan rankaise vääriä ennusteita, vaan ottaa huomioon myös mallin varmuuden ennusteissaan. Kuten yllä olevassa kuvassa on esitetty, kun pp on lähellä yy:tä (todellinen tavoite), kustannusfunktio pysyy melko pienenä, mikä osoittaa, että malli valitsi oikean luokan luottavaisesti. Toisaalta, jos ennuste on väärä, kustannusfunktio kasvaa eksponentiaalisesti mallin varmuuden kasvaessa väärästä luokasta.

Binääriluokittelun ja sigmoidifunktion yhteydessä käytetty kustannusfunktio tunnetaan nimellä binäärinen ristientropiahäviö (binary cross-entropy loss), joka esitettiin yllä. On tärkeää huomata, että on olemassa myös yleisempi muoto, nimeltään ristientropiahäviö (cross-entropy loss) eli kategorinen ristientropiahäviö, jota käytetään moniluokkaisissa luokitteluongelmissa.

Kategorinen ristientropiahäviö yhdelle koulutusesimerkille lasketaan seuraavasti:

Categorical Cross-Entropy Loss=i=1Cyilog(pi)\text{Categorical Cross-Entropy Loss} = -\sum_{i=1}^{C} y_i \log(p_i)

Missä

  • CC on luokkien määrä;
  • yiy_i on todellinen tavoitearvo (1, jos luokka on oikea, muuten 0);
  • pip_i on ennustettu todennäköisyys, että esimerkki kuuluu luokkaan ii.

Häviöfunktio lasketaan jokaiselle koulutusesimerkille ja otetaan keskiarvo. Tätä keskiarvoa kutsutaan kustannusfunktioksi. Logistinen regressio etsii parametrit β\beta, jotka minimoivat kustannusfunktion.

question mark

Mitä seuraavista käytetään häviönä luokittelutehtävissä?

Select the correct answer

Oliko kaikki selvää?

Miten voimme parantaa sitä?

Kiitos palautteestasi!

Osio 2. Luku 2

Kysy tekoälyä

expand

Kysy tekoälyä

ChatGPT

Kysy mitä tahansa tai kokeile jotakin ehdotetuista kysymyksistä aloittaaksesi keskustelumme

Awesome!

Completion rate improved to 4.17

bookParametrien Löytäminen

Pyyhkäise näyttääksesi valikon

Logistinen regressio vaatii tietokoneelta vain parhaiden parametrien ββ oppimista. Tätä varten on määriteltävä, mitä "parhaat parametrit" tarkoittavat. Palataanpa siihen, miten malli toimii: se ennustaa pp - todennäköisyyden kuulua luokkaan 1:

p=σ(z)=σ(β0+β1x1+...)p = \sigma (z) = \sigma (\beta_0 + \beta_1x_1 + ...)

Missä

σ(z)=11+ez\sigma (z) = \frac{1}{1 + e^{-z}}

On selvää, että malli, jolla on hyvät parametrit, ennustaa korkean (lähellä 1) pp arvon havainnoille, jotka todella kuuluvat luokkaan 1, ja matalan (lähellä 0) pp arvon havainnoille, joiden todellinen luokka on 0.

Mallin hyvyyden tai huonouden mittaamiseen käytetään kustannusfunktiota. Lineaarisessa regressiossa käytettiin MSE:tä (keskineliövirhe) kustannusfunktiona. Tällä kertaa käytetään eri funktiota:

Tässä pp edustaa mallin ennustamaa todennäköisyyttä kuulua luokkaan 1, kun taas yy tarkoittaa todellista tavoitearvoa.

Tämä funktio ei ainoastaan rankaise vääriä ennusteita, vaan ottaa huomioon myös mallin varmuuden ennusteissaan. Kuten yllä olevassa kuvassa on esitetty, kun pp on lähellä yy:tä (todellinen tavoite), kustannusfunktio pysyy melko pienenä, mikä osoittaa, että malli valitsi oikean luokan luottavaisesti. Toisaalta, jos ennuste on väärä, kustannusfunktio kasvaa eksponentiaalisesti mallin varmuuden kasvaessa väärästä luokasta.

Binääriluokittelun ja sigmoidifunktion yhteydessä käytetty kustannusfunktio tunnetaan nimellä binäärinen ristientropiahäviö (binary cross-entropy loss), joka esitettiin yllä. On tärkeää huomata, että on olemassa myös yleisempi muoto, nimeltään ristientropiahäviö (cross-entropy loss) eli kategorinen ristientropiahäviö, jota käytetään moniluokkaisissa luokitteluongelmissa.

Kategorinen ristientropiahäviö yhdelle koulutusesimerkille lasketaan seuraavasti:

Categorical Cross-Entropy Loss=i=1Cyilog(pi)\text{Categorical Cross-Entropy Loss} = -\sum_{i=1}^{C} y_i \log(p_i)

Missä

  • CC on luokkien määrä;
  • yiy_i on todellinen tavoitearvo (1, jos luokka on oikea, muuten 0);
  • pip_i on ennustettu todennäköisyys, että esimerkki kuuluu luokkaan ii.

Häviöfunktio lasketaan jokaiselle koulutusesimerkille ja otetaan keskiarvo. Tätä keskiarvoa kutsutaan kustannusfunktioksi. Logistinen regressio etsii parametrit β\beta, jotka minimoivat kustannusfunktion.

question mark

Mitä seuraavista käytetään häviönä luokittelutehtävissä?

Select the correct answer

Oliko kaikki selvää?

Miten voimme parantaa sitä?

Kiitos palautteestasi!

Osio 2. Luku 2
some-alt