next up previous contents
Next: Réseau à une couche Up: Etude sous le logiciel Previous: Etude sous le logiciel

Petite introduction

Différentes fonctions sous Matlab permettent de réaliser l'apprentissage d'un réseau entre autres :
$\cdot$ la fonction ``trainbp'' donne un apprentissage de rétro-propagation
$\cdot$ la fonction ``trainbpx'' fournit aussi un apprentissage de rétro-propagation du gradient mais celui est caractérisé de ``rapide''.

C'est sur cette fonction que nous travaillerons. Elle est de la forme :

[W1,B1,W2,B2,...,TE,TR] = TRAINBPX(W1,B1,F1,W2,B2,F2,...,P,T,TP)
Cette fonction prend comme arguments :
$\cdot$ Wi qui représentent la matrice des poids pour la i-ème couche
$\cdot$ Bi qui représentent le vecteur des ``biais'' (c'est en fait les coefficients de la constante) pour la i-ème couche
$\cdot$ Fi qui définit la fonction de transfert pour la i-ème couche
$\cdot$ P qui représente la matrice des variables d'entrée (explicatives)
$\cdot$ T qui représente la matrice des variables de sortie (à expliquer)
$\cdot$ TP qui représente les paramètres de l'apprentissage (il est optionnel).

Elle retourne :
$\cdot$ les nouveaux poids Wi
$\cdot$ les nouveaux biais Bi
$\cdot$ TE qui représente le nombre d'itérations nécessaire pour l'apprentissage
$\cdot$ TR qui caractérise l'erreur.

Pour déterminer les valeurs prédites des variables explicatives, on utilise la fonction simuff.


next up previous contents
Next: Réseau à une couche Up: Etude sous le logiciel Previous: Etude sous le logiciel
Yasmine yactine
1999-07-28