next up previous contents index
Next: Extensions possibles Up: Conclusions générales Previous: Conclusions générales   Contents   Index

Sommaire des contributions principales

Le travail présenté dans cette thèse peut être récapitulé comme suit. Nous avons proposé une méthodologie pour évaluer automatiquement la qualité des flux multimédias temps réel, tenant compte du fait qu'il y a beaucoup de facteurs affectant la qualité, notamment les déformations dues au codage et la transmission en temps réel sur des réseaux de paquet. Le but de cette méthode est de dépasser les limites des techniques disponibles dans la littérature. Les avantages de notre méthode sont les suivantes : (i) les résultats obtenus se corrèlent bien avec la perception humaine car notre procédé est établi partiellement en utilisant des données subjectives ; (ii) elle est rapide en terme de temps de calcul, car un réseau de neurones simple (RN) est employé pour mesurer la qualité ; (iii) il n' y a aucun besoin d'accéder aux signaux originaux du multimédia, qui servent seulement pendant la phase de développement à identifier quelques facteurs objectifs qui sont employés pour permettre au RN d'apprendre la relation entre les signaux originaux et traités en se basant sur ces facteurs objectifs ; (iv) beaucoup de facteurs qui ne peuvent pas être pris en considération par les méthodes traditionnelles peuvent être facilement inclus (par exemple, le débit d'images ou l'utilisation de FEC). Nous avons employé notre méthode avec succès pour évaluer la qualité en temps réel de la parole en tenant compte de plusieurs paramètres de codage et de réseau. Les paramètres considérés sont : le taux de perte, la distribution de perte, l'intervalle de mise en paquet, plusieurs codecs et l'effet de la langue. Nous avons suivi la même approche pour évaluer la qualité de la vidéo. Les paramètres considérés sont : le taux de perte, la distribution de perte, le débit, le débit d'images, et le type de codage pour le codec H.263. L'application de notre technique aux flux vidéo a mené à des résultats semblables à ceux obtenus dans le cas de la parole. Les caractéristiques mentionnées ci-dessus de notre méthodologie permettent de l'employer en temps réel avec un temps de calcul négligeable. Le fait que la qualité puisse être mesurée avec une grande confiance, sans avoir accès aux signaux originaux, permet de développer des nouveaux protocoles du réseau de transmission. Comme exemple de tels protocoles, nous avons conçu un nouveau protocole de contrôle de débit. Ce mécanisme combine une évaluation en temps réel de la qualité de multimédia avec un contrôleur de débit TCP-Friendly. Il permet de fournir une meilleure qualité de multimédia et d'économiser la largeur de bande pour une situation donnée de réseau (en déterminant le débit de transmission exact à employer, au lieu de donner juste une borne supérieure). En se basant sur la qualité mesurée par le RN et sur les états de réseau (valeurs données par un contrôleur TCP-Friendly), le contrôleur décide des paramètres qui devraient être modifiés pour réaliser cette tâche. Avant de mettre en application ce protocole, il est nécessaire de comprendre l'impact des paramètres, a priori importants, sur la qualité du multimédia. Les conditions à respecter sont que la qualité doit bien se corréler avec la perception humaine et que l'analyse doit inclure l'effet combiné de tous les paramètres influant la qualité à la fois. Deux solutions possibles existent pour répondre à ces exigences : en utilisant les essais subjectifs de qualité ou celle de mesures objectives. Malheureusement, la première solution n'est pas pratique car elle est très chère et difficile à effectuer. En outre, pour atteindre un niveau minimum de précision, un nombre énorme d'évaluations est nécessaire. En ce qui concerne la seconde, la complexité du problème fait qu'il n'existe pas de telle mesure objective. Notre méthode fournit un RN prenant en entrée plusieurs paramètres ayant une influence sur la qualité, et il est alors aisé de réaliser des études sur l'effet combiné de ces paramètres. Nous avons développé de telles études dans cette thèse. Dans notre travail, nous avons employé deux types de RN, à savoir les RN artificiels (ANN) et les RN aléatoires (RNN). Nous recommandons l'utilisation des RNN car ils offrent quelques avantages. Cette recommandation se base sur de nombreuses expériences que nous avons effectuées pour comparer les performances de ces outils. Parmi ces avantages, nous pouvons mentionner ce qui suit : (i) les RNN peuvent capter avec plus de précision la relation non linéaire entre la qualité et les paramètres ; (ii) les RNN ne souffrent pas trop du problème de surentraînement ; (iii) dans la phase d'exécution, les RNN sont beaucoup plus rapides que les ANN à architecture égale. L'algorithme disponible d'apprentissage d'un RNN (de type gradient descente) peut être trop lent pour converger à une précision minimale. Par exemple, dans le problème de la vidéo, pour atteindre une erreur quadratique moyenne de 0,0025, il prend environ 5000 itérations dans 16 heures sur une station de travail standard. Ce problème nous a motivés pour explorer des nouvelles techniques d'apprentissage pour les RNN. Ceci nous a menés à proposer deux nouveaux algorithmes. Le premier est basé sur la méthode de Levenberg-Marquardt pour les ANN, l'une des plus puissantes pour les ANN (temps requis pour converger, précision, nombre d'itérations, ...). Le second est une amélioration de la méthode générale de Levenberg-Marquardt pour les réseaux de type feedforward. Il s'agit d'une technique adaptative pour accélérer le processus d'apprentissage en ajoutant l'information des dérivés d'ordre 2 dans la fonction de coût. Nous avons étudié ces deux algorithmes et nous avons fourni les étapes et la dérivation mathématique à employer avec un RNN. Nous avons trouvé que ces deux algorithmes surpassent l'algorithme de base. Pour le problème de la vidéo discuté dans ce document et la même architecture, le deuxième algorithme proposé a pris seulement 7 itérations en moins d'une minute pour arriver à la même erreur. Nous avons évalué leurs performances pour d'autres problèmes et nous avons également fourni quelques variantes des deux techniques. Nous avons également présenté un nouveau modèle pour la prédiction du trafic qui se sert de la périodicité à longue portée et à courte portée du processus du trafic pour fournir un modèle plus réaliste. Les modèles existants se concentrent seulement sur l'information à courte portée tout en négligeant l'information à longue portée.
next up previous contents index
Next: Extensions possibles Up: Conclusions générales Previous: Conclusions générales   Contents   Index
Samir Mohamed 2003-01-08