Denis Beautemps
GIPSA-Lab-INPG-Université Stendhal
Session JEP poster P2 Lundi 9 Juin - 16h00 18h00
-
papier 1679
Modélisation Articulatoire de la Main en Langue Française Parlée Complétée : le cas de la clé digitale
- Pablo Sacher ( Grenoble Image Parole Signal Automatique, département Parole & Cognition)
- Denis Beautemps ( Grenoble Image Parole Signal Automatique, département Parole & Cognition)
- Vilain Coriandre ( Grenoble Image Parole Signal Automatique, département Parole & Cognition)
- Résumé : Dans le cadre de la synthèse audiovisuelle de code LPC, modéliser la forme de la main est un enjeu majeur. La présente contribution présente plusieurs modèles de prédiction de la forme de la main. Une discussion présente les résultats croisés des deux modèles et alimente une interrogation sur le dispositif expérimental.
- article
Session JEP poster P4 Mardi 10 Juin - 14h00 16h00
-
papier 1584
Perception multimodale de l'anticipation en parole chez le sourd et l'entendant, adulte et enfant
- Emilie Troille ( CRI - Université Stendhal / GIPSA-Lab-INPG-Université Stendhal)
- Marie-Agnès Cathiard ( CRI - Université Stendhal)
- Lucie Ménard ( Laboratoire de phonétique - UQAM)
- Denis Beautemps ( GIPSA-Lab-INPG-Université Stendhal)
- Résumé : In a previous study (Troille & Cathiard, 2006) on vowel rounding anticipatory perception through a fricative consonant stream, we demonstrated that auditory information could be, in this VCV frame, ahead of visual information, and even of audiovisual information. We propose here to extend this experiment to 7-11-year-old children and to adults, both with normal and impaired hearing. Results showed that, if normal and impaired hearing subjects, both adults and children, had the same late performance in vision only, impaired hearing practicing French Cued Speech succeeded in the identification task as precociously as normal hearing in the auditory condition. Hence given the best available information, provided it anticipates on vision, be it the audio channel or manual CS coding, subjects take the best advantage of the natural timing of the different sensory informations. So the hand can substitute in time for the spoken sounds.
- article
Session JEP poster P3 Mardi 10 Juin - 14h00 16h00
-
papier 1674
Analyse de la Production d'un Codeur LPC Sourd
- Pablo Sacher ( Grenoble Images Parole Signal Automatique - Dpt. Parole et Cognition)
- Denis Beautemps ( Grenoble Images Parole Signal Automatique - Dpt. Parole et Cognition)
- Marie-Agnès Cathiard ( Centre de Recherche sur l'Imaginaire - Université Stendhal Grenoble III)
- Noureddine Aboutabit ( Grenoble Images Parole Signal Automatique - Dpt. Parole et Cognition)
- Résumé : Cet article se concentre sur l'analyse de la production de code LPC par une personne sourde. En effet, ce genre d'analyse, pour des codeurs normo-entendants est rare, et quasiment inexistante en ce qui concerne la production de code par une personne sourde. Précisons qua par analyse nous entendons coordination temporelle des gestes labiaux et manuels du code LPC. Nous verrons que l'anticipation manuelle sur le geste labial (découvert par Attina et al. (2004)) est conservée pour ce codeur.
- article
Session JEP orale O2 Pathologies Mardi 10 Juin - 16h30 18h30
-
papier 1670
Adaptation de la production labiale d'un participant sourd et classification : le cas des voyelles en contexte du code LPC
- Noureddine Aboutabit ( Grenoble Images Parole Signal Automatique, département Parole & Cognition)
- Denis Beautemps ( Grenoble Images Parole Signal Automatique, département Parole & Cognition)
- Olivier Mathieu ( Grenoble Images Parole Signal Automatique, département Parole & Cognition)
- Laurent Besacier ( Laboratoire d'Informatique de Grenoble)
- Résumé : The phonetic translation of Cued Speech (CS) gestures needs to mix the manual CS information together with the lips, taking into account the desynchronization delay (Attina et al. [2], Aboutabit et al. [7]) between these two flows of information. This contribution focuses on the lip flow modeling in the case of French vowels. Previously, classification models have been developed for a professional normal hearing CS speaker (Aboutabit et al., [7]). These models are used as a reference. Now, we process the case of a deaf CS speaker and discuss the possibilities of classification. The best performance (92,8%) is obtained with the adaptation of the deaf data to the reference models.
- article