Next: Réseau à une couche
Up: Etude sous le logiciel
Previous: Etude sous le logiciel
Différentes fonctions sous Matlab permettent de réaliser l'apprentissage d'un réseau entre autres :
la fonction ``trainbp'' donne un apprentissage de rétro-propagation
la fonction ``trainbpx'' fournit aussi un apprentissage de rétro-propagation du gradient mais celui est caractérisé de ``rapide''.
C'est sur cette fonction que nous travaillerons. Elle est de la forme :
[W1,B1,W2,B2,...,TE,TR] = TRAINBPX(W1,B1,F1,W2,B2,F2,...,P,T,TP)
Cette fonction prend comme arguments :
Wi qui représentent la matrice des poids pour la i-ème couche
Bi qui représentent le vecteur des ``biais'' (c'est en fait les coefficients de la constante) pour la i-ème couche
Fi qui définit la fonction de transfert pour la i-ème couche
P qui représente la matrice des variables d'entrée (explicatives)
T qui représente la matrice des variables de sortie (à expliquer)
TP qui représente les paramètres de l'apprentissage (il est optionnel).
Elle retourne :
les nouveaux poids Wi
les nouveaux biais Bi
TE qui représente le nombre d'itérations nécessaire pour l'apprentissage
TR qui caractérise l'erreur.
Pour déterminer les valeurs prédites des variables explicatives, on utilise la fonction simuff.
Next: Réseau à une couche
Up: Etude sous le logiciel
Previous: Etude sous le logiciel
Yasmine yactine
1999-07-28