next up previous contents
Next: Comparaison de termes utilisés Up: Réseau de neurones et Previous: Le perceptron multicouches

Modèle mathématique du perceptron multicouches

On dispose d'une variable quantitative ou d'une variable qualitative (notée y) à q modalités que l'on doit prédire à partir de p variables $(x_1,x_2,\ldots,x_p)$ prédictrices. On dispose par ailleurs de n individus ou observations (échantillon d'apprentissage) décrits par les p variables $(x_1,x_2,\ldots,x_p)$ et pour lesquels ont connaît les valeurs de y. On suppose que la couche d'entrée est formée de p entrées, auxquelles seront appliquées des coefficients appelés les poids synaptiques wjm. De plus, il existe un terme constant en entrée qui, pour des raisons pratiques, prend la valeur 1. La couche cachée comprend c neurones qui seront chacun activés par une intégration (en général fonction monotone de la somme) des p signaux en provenance de la couche d'entrée. La même opération a lieu pour les q éléments de la couche de sortie mettant en jeu les poids synaptiques vmk. Il existe aussi une connexion directe de l'entrée constante à la sortie.
L'introduction de la constante d'entrée unitaire, connectée à chaque neurone situé dans la couche cachée ainsi qu'à chaque sortie, évite d'introduire séparément ce que les informaticiens appellent un biais pour chaque unité. Les biais deviennent simplement parties intégrantes de la série de poids (les paramètres).
En termes de modèle analytique, on écrira :

\begin{displaymath}{\displaystyle y_k\,=\,\Phi_0\{a_k+\sum_{m=1}^cv_{mk}
\Phi(a_m+\sum_{j=1}^pw_{jm}x_j)\}}\end{displaymath}


Dans cette formule, la fonction $\Phi$ est la fonction logistique à savoir :

\begin{displaymath}{\displaystyle \Phi(z)\,=\,\frac{\exp(z)}{1+\exp(z)}}\end{displaymath}


La fonction $\Phi_0$ peut être selon les cas linéaire, logistique, ou à seuil.
Remarquons que l'équation correspond à une observation (i). On a en réalité n équations de ce type, faisant chacune intervenir q valeurs yk(i) et p valeurs xj(i).
L'estimation des paramètres se fait en minimisant une fonction de perte, qui peut simplement être la somme des carrés des écarts entre les valeurs calculées $\tilde{y}_k^{(i)}$ et les valeurs observées yk(i) dans l'échantillon d'apprentissage.


next up previous contents
Next: Comparaison de termes utilisés Up: Réseau de neurones et Previous: Le perceptron multicouches
Yasmine yactine
1999-07-28