Numéro
J. Phys. Colloques
Volume 51, Numéro C2, Février 1990
Premier Congrès Français d'Acoustique / First French Conference on Acoustics
Page(s) C2-487 - C2-490
DOI https://doi.org/10.1051/jphyscol:19902114
Premier Congrès Français d'Acoustique / First French Conference on Acoustics

J. Phys. Colloques 51 (1990) C2-487-C2-490

DOI: 10.1051/jphyscol:19902114

DÉCODAGE ACOUSTICO-PHONÉTIQUE EN MACRO-TRAITS ET TRAITS

H. TATTEGRAIN et J. CAELEN

Institut de la Communication Parlée, INP-ENSERG, Université Stendhal, Unité Associée au CNRS n° 368, 46 Avenue Félix Viallet, F-38031 Grenoble Cedex, France


Résumé
Ce papier décrit l'avancement de notre système de DAP (Dicodage Acoustico-Phonétique) et l'évaluation des résultats acquis depuis les articles déjà présentés [1][2]. Ce module est inclus dans un projet plus vaste de reconnaissance multi-expert DIRA (Dialogue Intégré et Reconnaissance Automatique) - où chaque expert (expert lexical, expert syntaxico-sémantique, expert de compréhension, expert de décodage acoustico-phonétique) est piloté par un superviseur général - et il est composé de deux parties : ascendante et descendante. Cet article présente rapidement la paramétrisation du signal (fondamental, énergie, modèle d'oreille, indices acoustiques dérivés de ce modèle ...) et la segmentation du signal employée, puis plus en détail l'architecture générale du DAP ainsi que le formalisme et le type de connaissances utilisées. Les résultats après la phase de filtrage des résultats de localisation, nous montre les avantages de ce formalisme et les erreurs qu'il reste à corriger à l'issue de cette phase, ce qui indique le rôle prépondérant de la partie descendante du DAP et le type de règles la composant (phonologiques, contextuelle ...).


Abstract
This paper describes the progress of our APD (Acoustic Phonetic Decoding) module as well as the evaluation of the results obtained since the presentation of the articles [1] and [2]. This module is incorporated in the continuous speech recognition multi-expert system DIRA (Integrated Dialogue and Automatic Recognition), in which each expert module (lexical analyzer, syntactic/semantic analyzer, comprehensive analyzer and acoustic phonetic decoder) is guided by a general supervisor. Furthermore, it is composed of two distinctive steps : a bottom-up and a top-down steps. The following text briefly describes (a) the signal parametrization (pitch, energy, ear-model acoustic cues, etc ...) as well the signal segmentation applied and (b) in more details the system architecture of the APD module and (c) the formalisms and (d) knowledge types used. The results obtained after filtering (correction of erroneous localizations) phase will be used to demonstrate the advantages of those formalisms and type of localization errors that rest to be resolved. They will also demonstrate the importance of the top-down APD module.