Dépôt numérique
RECHERCHER

Analyse sémantique pour systèmes de dialogue verbaux.

Téléchargements

Téléchargements par mois depuis la dernière année

Plus de statistiques...

Benahmed, Yacine (2018). Analyse sémantique pour systèmes de dialogue verbaux. Thèse. Québec, Université du Québec, Institut national de la recherche scientifique, Doctorat en télécommunications, 231 p.

[img]
Prévisualisation
PDF
Télécharger (4MB) | Prévisualisation

Résumé

Les modèles de langages statistiques font partie intégrante de nombreuses applications telles que la reconnaissance automatique de la parole, la reconnaissance automatique de l’écriture, la saisie prédictive, la traduction automatique du langage, etc. Malgré les développements récents dans le domaine des réseaux de neurones profonds, les N-grammes demeurent tout de même pertinentes dans des domaines où les ressource linguistiques ou computationnelles sont limitées. L’objectif de cette thèse est de présenter un nouvel algorithme de lissage des N-grammes utilisant l’information sémantique lattente aux ontologies. Comme le langage offre une très grande flexibilité dans sa façon d’exprimer une idée, nous utiliserons les relations sémantiques entre les N-grammes observées et les N-grammes non-observées afin d’estimer les probabilités d’observation de ces dernières dans de nouvelles conditions. Nos résultats démontrent qu’il est possible d’obtenir une réduction de 0,93 bit de l’entropie du modèle de langage. Par ailleurs, afin d’optimiser ces modèles de langages, nous proposons d’évaluer la performance de divers algorithmes évolutionnaires. Nos résultats montrent que l’optimisation par algorithmes génétiques permet de couvrir une plus grande partie de l’espace de recherche, au coût d’une plus grande variance dans la solution obtenue. Pour sa part, l’optimisation par essaims particulaires fait preuve d’une moins grande variance dans les solutions obtenues, tout en demeurant aussi performante que l’optimisation par algorithme génétique.

Abstract

Statistical language models are an integral part of many applications such as automatic speech recognition, automatic recognition of writing, predictive input, automatic translation of the language, and so on. Despite recent developments in the field of deep neural networks, N-grams remain relevant in areas where linguistic or computational resources are limited. The objective of this thesis is to present a new algorithm of smoothing N-grams using the semantic information latent to the ontologies. Since language offers a very high degree of flexibility in the way it expresses an idea, we will use the semantic relations between the observed N-grams and the non-observed N-grams in order to estimate the observation probabilities of the observed N-grams in new conditions. Our results show that it is possible to obtain a 0.93 bit reduction of the entropy of the language model. Moreover, in order to optimize these language models, we propose to evaluate the performance of various evolutionary algorithms. Our results show that optimization by genetic algorithms makes it possible to cover a larger part of the research space at the cost of a greater variance in the solution obtained. For its part, the optimization by particulate swarms shows less variance in the solutions obtained, while remaining as efficient as the optimization by genetic algorithm.

Type de document: Thèse Thèse
Directeur de mémoire/thèse: O'Shaughnessy, Douglas
Co-directeurs de mémoire/thèse: Sid-Ahmed, Selouani
Mots-clés libres: modèles de langage; ontologies; n-grammes; reconnaissance automatique de la parole; algorithmes évolutionnaires; language models; ontologies; n-grams; automatic speech recognition; evolutionary algorithms
Centre: Centre Énergie Matériaux Télécommunications
Date de dépôt: 19 oct. 2018 15:33
Dernière modification: 19 oct. 2018 15:33
URI: http://espace.inrs.ca/id/eprint/7632

Actions (Identification requise)

Modifier la notice Modifier la notice