next up previous contents
Next: Propriétés Up: Les Modèles Linéaires Généralisés Previous: Les Modèles Linéaires Généralisés

Définitions


$\bullet\hspace{2mm}$Un modèle linéaire généralisé est la donnée des observations y1,...,yn de n variables aléatoires réelles Y1,...,Yn indépendantes et de densités respectives :

\begin{displaymath}f_i(y,\beta,\zeta)=\hbox{$ 1 \hspace{-1.1mm} \hbox{I}$}_U e^{...
...-b(\theta_i)]+c(\zeta,y)}\hspace{5mm},\hspace{5mm}i=1,...,n\\
\end{displaymath}

Avec:
$\theta_i=a(<t_i,\beta>)$
$\beta \in $ $I \hspace{-2.6mm} R$p et $\zeta \in$ $I \hspace{-2.6mm} R$+ inconnus
ti,a,b,c applications connues
a injective
a et b possédant des dérivées secondes
U indépendant de $\beta$ et de $\zeta $.

$\bullet\hspace{2mm} <t_i,\beta>$ est le prédicteur linéaire pour l'observation yi.

$\bullet\hspace{2mm} a^{-1}\circ b'^{-1}$ est la fonction de lien l.

$\bullet\hspace{2mm}$ Si a=Id alors l=b'-1 est la fonction de lien canonique.

$\bullet\hspace{2mm} b''\circ b'^{-1}$ est la fonction variance.

$\bullet\hspace{2mm}\zeta$ est le paramètre d'échelle.

$\bullet\hspace{2mm} \widehat{r_i}=\frac{y_i-\widehat{y_i}}{\sqrt{b''(\widehat{\theta_i})}}$ est le résidu de Pearson (avec $\widehat{y_i}$ l'estimation de yi et $\widehat{\theta_i}$ celle de $\theta_i$).

$\bullet\hspace{2mm}{\chi}^2 \hbox{P}=\sum_i(\widehat{r_i})^2$ est le $\chi ^2$ de Pearson.

$\bullet\hspace{2mm}$Etant donné un Modèle Linéaire Généralisé défini comme précédement, on lui associe le modèle saturé défini par:
Y1,...,Yn sont indépendants.
Yi a pour densité:
$f_i(y,\theta,\zeta)=\hbox{$\space 1 \hspace{-1.1mm} \hbox{I}$ }_U e^{\frac{1}{\zeta}(y\theta_i-b(\theta_i))+c(\zeta,y)}\hspace{5mm},\hspace{5mm}i=1,...,n$.
Le paramètre inconnu est donc $(\theta_1,...,\theta_n,\zeta)$.
La Log-vraisemblance du modèle saturé est donc:
$L(y,\theta,\zeta)=\frac{1}{\zeta}\sum_i[y_i\theta_i-b(\theta_i)]+\sum_ic(\zeta,y_i)$.
L'estimation de $\theta$ par le maximum de vraisemblance est $\widehat{\widehat{\theta_i}}=b'^{-1}(y_i)$.
De plus, on pose $\widehat{\widehat{L}}=L(y,\widehat{\widehat{\theta}},\zeta)=\frac{1}{\zeta}\sum_i(y_i\widehat{\widehat{\theta_i}}-b(\widehat{\widehat{\theta_i}}))$.
Etant donné donc un Modèle Linéaire Généralisé avec $\zeta $ inconnu, on appelle déviance du modèle:
Dev $ =2\zeta(\widehat{\widehat{L}}-L(y,\widehat{\beta},\zeta))$.

$\bullet\hspace{2mm}$Si $\zeta $ est connu, la déviance normée (scaled déviance) est:
S.Dev $=2(\widehat{\widehat{L}}-L(y,\widehat{\beta}))$.


next up previous contents
Next: Propriétés Up: Les Modèles Linéaires Généralisés Previous: Les Modèles Linéaires Généralisés
Joseph Saint Pierre
1998-12-10