Parametrien Löytäminen
Logistinen regressio vaatii tietokoneelta vain parhaiden parametrien β oppimista. Tätä varten on määriteltävä, mitä "parhaat parametrit" tarkoittavat. Palataanpa siihen, miten malli toimii: se ennustaa p - todennäköisyyden kuulua luokkaan 1:
p=σ(z)=σ(β0+β1x1+...)Missä
σ(z)=1+e−z1On selvää, että malli, jolla on hyvät parametrit, ennustaa korkean (lähellä 1) p arvon havainnoille, jotka todella kuuluvat luokkaan 1, ja matalan (lähellä 0) p arvon havainnoille, joiden todellinen luokka on 0.
Mallin hyvyyden tai huonouden mittaamiseen käytetään kustannusfunktiota. Lineaarisessa regressiossa käytettiin MSE:tä (keskineliövirhe) kustannusfunktiona. Tällä kertaa käytetään eri funktiota:
Tässä p edustaa mallin ennustamaa todennäköisyyttä kuulua luokkaan 1, kun taas y tarkoittaa todellista tavoitearvoa.
Tämä funktio ei ainoastaan rankaise vääriä ennusteita, vaan ottaa huomioon myös mallin varmuuden ennusteissaan. Kuten yllä olevassa kuvassa on esitetty, kun p on lähellä y:tä (todellinen tavoite), kustannusfunktio pysyy melko pienenä, mikä osoittaa, että malli valitsi oikean luokan luottavaisesti. Toisaalta, jos ennuste on väärä, kustannusfunktio kasvaa eksponentiaalisesti mallin varmuuden kasvaessa väärästä luokasta.
Binääriluokittelun ja sigmoidifunktion yhteydessä käytetty kustannusfunktio tunnetaan nimellä binäärinen ristientropiahäviö (binary cross-entropy loss), joka esitettiin yllä. On tärkeää huomata, että on olemassa myös yleisempi muoto, nimeltään ristientropiahäviö (cross-entropy loss) eli kategorinen ristientropiahäviö, jota käytetään moniluokkaisissa luokitteluongelmissa.
Kategorinen ristientropiahäviö yhdelle koulutusesimerkille lasketaan seuraavasti:
Categorical Cross-Entropy Loss=−i=1∑Cyilog(pi)Missä
- C on luokkien määrä;
- yi on todellinen tavoitearvo (1, jos luokka on oikea, muuten 0);
- pi on ennustettu todennäköisyys, että esimerkki kuuluu luokkaan i.
Häviöfunktio lasketaan jokaiselle koulutusesimerkille ja otetaan keskiarvo. Tätä keskiarvoa kutsutaan kustannusfunktioksi. Logistinen regressio etsii parametrit β, jotka minimoivat kustannusfunktion.
Kiitos palautteestasi!
Kysy tekoälyä
Kysy tekoälyä
Kysy mitä tahansa tai kokeile jotakin ehdotetuista kysymyksistä aloittaaksesi keskustelumme
Awesome!
Completion rate improved to 4.17
Parametrien Löytäminen
Pyyhkäise näyttääksesi valikon
Logistinen regressio vaatii tietokoneelta vain parhaiden parametrien β oppimista. Tätä varten on määriteltävä, mitä "parhaat parametrit" tarkoittavat. Palataanpa siihen, miten malli toimii: se ennustaa p - todennäköisyyden kuulua luokkaan 1:
p=σ(z)=σ(β0+β1x1+...)Missä
σ(z)=1+e−z1On selvää, että malli, jolla on hyvät parametrit, ennustaa korkean (lähellä 1) p arvon havainnoille, jotka todella kuuluvat luokkaan 1, ja matalan (lähellä 0) p arvon havainnoille, joiden todellinen luokka on 0.
Mallin hyvyyden tai huonouden mittaamiseen käytetään kustannusfunktiota. Lineaarisessa regressiossa käytettiin MSE:tä (keskineliövirhe) kustannusfunktiona. Tällä kertaa käytetään eri funktiota:
Tässä p edustaa mallin ennustamaa todennäköisyyttä kuulua luokkaan 1, kun taas y tarkoittaa todellista tavoitearvoa.
Tämä funktio ei ainoastaan rankaise vääriä ennusteita, vaan ottaa huomioon myös mallin varmuuden ennusteissaan. Kuten yllä olevassa kuvassa on esitetty, kun p on lähellä y:tä (todellinen tavoite), kustannusfunktio pysyy melko pienenä, mikä osoittaa, että malli valitsi oikean luokan luottavaisesti. Toisaalta, jos ennuste on väärä, kustannusfunktio kasvaa eksponentiaalisesti mallin varmuuden kasvaessa väärästä luokasta.
Binääriluokittelun ja sigmoidifunktion yhteydessä käytetty kustannusfunktio tunnetaan nimellä binäärinen ristientropiahäviö (binary cross-entropy loss), joka esitettiin yllä. On tärkeää huomata, että on olemassa myös yleisempi muoto, nimeltään ristientropiahäviö (cross-entropy loss) eli kategorinen ristientropiahäviö, jota käytetään moniluokkaisissa luokitteluongelmissa.
Kategorinen ristientropiahäviö yhdelle koulutusesimerkille lasketaan seuraavasti:
Categorical Cross-Entropy Loss=−i=1∑Cyilog(pi)Missä
- C on luokkien määrä;
- yi on todellinen tavoitearvo (1, jos luokka on oikea, muuten 0);
- pi on ennustettu todennäköisyys, että esimerkki kuuluu luokkaan i.
Häviöfunktio lasketaan jokaiselle koulutusesimerkille ja otetaan keskiarvo. Tätä keskiarvoa kutsutaan kustannusfunktioksi. Logistinen regressio etsii parametrit β, jotka minimoivat kustannusfunktion.
Kiitos palautteestasi!