Next: Étape 3 : choisir
Up: Mise en oeuvre des
Previous: Étape 1 : fixer
Chaque neurone supplémentaire permet de prendre en compte des profils spécifiques
des neurones d'entrée. Un nombre plus important permet donc de mieux coller aux
données présentées mais diminue la capacité de généralisation du réseau.
Ici non plus il n'existe pas de règle générale mais des règles empiriques. La
taille de la couche cachée doit être :
soit égale à celle de la couche d'entrée (Wierenga et Kluytmans, 1994),
soit égale à 75% de celle-ci (Venugopal et Baets, 1994),
soit égale à la racine carrée du produit du nombre de neurones dans la
couche d'entrée et de sortie (Shepard, 1990).
Notons que le dernier choix réduit le nombre de degrés de liberté laissés au
réseau, et donc la capacité d'adaptation sur l'échantillon d'apprentissage, au
profit d'une plus grande stabilité/capacité de généralisation.
Une voie de recherche ultérieure consisterait soit à procéder à l'estimation
d'un réseau comportant de nombreux neurones puis à le simplifier par l'analyse
des multicolinéarités ou par une règle d'apprentissage éliminant les neurones
inutiles ; soit à définir une architecture tenant compte de la structure des
variables identifiée au préalable par une analyse en composantes principales.
Next: Étape 3 : choisir
Up: Mise en oeuvre des
Previous: Étape 1 : fixer
Yasmine yactine
1999-07-28