Determinationskoefficienten

Determinationskoefficienten

I Excel hedder determinationskoefficienten "R Square'', hvilket giver god mening, da formlen for determinationskoefficienten er kvadratet på korrelationskoefficienten, 
\(
\mathrm{determinationskoefficienten} = R^2
\)
Man hører jævnligt alternative betegnelser for determinationskoefficienten som fx forklaringsgraden eller tilpasningsgraden.

Alternativ formel


Der findes en alternativ formel for \(R^2\) - som naturligvis giver samme værdi. Det er lettest at beregne determinationskoefficienten som kvadratet på korrelationskoefficienten, men den alternative formel gør det nemmere at fortolke determinationskoefficienten.

Vi har tidligere set, at SSE er forskellen mellem de fittede og observerede værdier. På samme måde kan man definere SSR som værende forskellen på de fittede værdier og gennemsnittet af observationerne, 
\(
\textrm{SSR} = \sum_{i=1}^{n} \Big( \widehat{y_i} - \bar{y} \Big)
\)
Definitionen på den totale "Sum of Squares'' er
\(
\textrm{SST} = \textrm{SSR} + \textrm{SSE}
\)

For observationerne \(y_i\) definerer man den totale "sum of squares'' som
\(
\textrm{SST} = \sum_{i=1}^{n} \Big( y_i - \bar{y} \Big )
\)
hvor \(\bar{y}\) er gennemsnittet af \(y_i\)'erne. Tilsvarende defineres "sum of squares'' for regressions. Den alternative formel for \(R^2\) er
\(
R^2 = \frac{SSR}{SST}
\)

Fortolkning af Determinationskoefficienten


Vi har altså ligningen
\begin{align}
\textrm{SST} &= \textrm{SSR} + \textrm{SSE} \\
\textrm{Totale variation} &= \textrm{Forklaret variation} \\
&+ \textrm{Uforklaret variation}
\end{align}

så formlen for \(R^2\) er forholdet mellem den forklarede og totale variation i modellen. Så jo tættere \(R^2\) er på 1, desto mere variation er forklaret af modellen. Hvis \(R^2\) kommer meget tæt på 1 eller ligefrem bliver 1, så er der dog grund til ekstra omtanke.

Har du et spørgsmål, du vil stille om Determinationskoefficienten? Skriv det i Webmatematiks forum!
Har du en kommentar til indholdet på denne side? Send os en mail!