next up previous contents index
Next: Comportement de réseaux de Up: Résultats Previous: Résultats   Contents   Index

L'apprentissage de réseaux de neurones

Nous avons employé l'architecture dite feedforward à trois couches. Le nombre de neurones dans la couche d'entrée est égal au nombre de paramètres choisis (cinq). Il y a seulement une seule sortie du RN, qui est la valeur du MOS correspondant. L'algorithme d'apprentissage pour l'ANN est le célèbre ``Backpropagation''. Pour le RNN, nous avons employé l'algorithme proposé par Gelenbe [47] ainsi que d'autres algorithmes que nous avons développés. Nous avons remarqué qu'à précision identique, le nombre d'itérations exigés par ces nouveaux algorithmes est plus faible que pour l'algorithme de base (le gradient). Le nombre de neurones cachés est de 5 pour le RNN et de 4 pour l'ANN. Après la mise en \oeuvre de l'expérience de MOS pour les 94 échantillons, nous avons divisé notre base de données (BD) en deux parties : une contenant 80 échantillons (les premiers dans le tableau 6.2) pour entraîner les RN, et l'autre contenant 14 autres échantillons pour la phase de validation. Après l'apprentissage de deux RN, nous comparons les valeurs réelles de la qualité contre celles prédites par les RN. Nous avons obtenu un facteur de corrélation de 0,9801, et une erreur quadratique moyenne de 0,108 ; c.-à-d., le RN s'adapte tout à fait bien à la manière dont les humains ont évalué la qualité de la vidéo. Le résultat est montré sur les figures  6.3 et 6(a). Il faut noter que pour le nombre optimal de neurones cachés pour un ANN et un RNN, les précisions obtenues sont presque les mêmes. Cependant, un ANN peut être surentraîné facilement. Dans ce cas, l'ANN ne généralise pas bien pour les échantillons non vus pendant la phase d'apprentissage.
next up previous contents index
Next: Comportement de réseaux de Up: Résultats Previous: Résultats   Contents   Index
Samir Mohamed 2003-01-08