Ma thèse s’inscrit dans le cadre du projet de recherche OpenPaasNG. qui a été lancé en 2015 pour une durée de 4 ans avec l’objectif de développer une nouvelle génération de plateforme collaborative proposant un outil de visio-conférence utilisant des technologies d’intelligence artificielle pour la transcription de la parole, l’extraction des mots clés et le résumé automatique des réunions. Dans ce contexte, l’objectif de cette thèse est d’étudier, d’approfondir, de construire et d’enrichir la brique de reconnaissance automatique de la parole (RAP) pour aider à l’exploitation de l’information verbale durant les réunions en temps réel et en off-line à des fins d’archivage. Cette thèse porte sur l’étude des méthodes de modélisation acoustique pour la RAP. Le bouleversement des architectures neuronales séquentielles ont permis de nos jours des avancées majeures dans l’amélioration de la modélisation et l’apprentissage du modèle acoustique. Nous explorons dans ce travail les deux grandes familles des systèmes RAP à savoir : les approches traditionnelles hybrides et End-to-End. Une première partie de cette thèse concerne les approches traditionnelles et est dédiée à la mise en place d’un système RAP large vocabulaire en français pour la parole spontanée, déployé dans le contexte industriel. Un grand travail de collecte de données, de traitement et de normalisation a été effectué dans un premier temps pour atteindre l’objectif des 1000 heures de parole annotée. Une évaluation des composants acoustique, lexical et linguistique est proposée pour affiner au mieux le choix et l’orientation de la modélisation hybride DNN-HMM pour la langue française. Nous décrivons dans cette partie le développement de la plateforme industrielle d’adaptation des composants hybrides appelée « LinSTT Model Factory » permettant une adaptation des modèles aux conditions d’utilisations, à savoir : un contexte acoustique particulier, un vocabulaire spécifique à un domaine cible. Dans une deuxième partie, nous abordons la problématique de prédiction de représentation textuelle directement à partir des observations acoustiques. Pour cela, nous effectuons une étude approfondie des approches RAP End-to-End : comment pouvons nous apprendre des alignements séquentiels entre l’audio et le texte ? Quel type d’architecture utiliser ? Et surtout, quel type d’unités en sortie choisir (caractère, pièce de mot, mot) ? Nous répondons à ces questions avec un ensemble d’expérience sur les corpus TIMIT et LibriSpeech. Ces travaux ont été, dans une grande partie, menés au cours d’un séjour scientifique au laboratoire du Mila au Canada dans le cadre du développement de l’outil open-source « SpeechBrain ». Dans une troisième partie, nous explorons des approches multi-tâche sur les systèmes RAP End-to-End afin d’exploiter plusieurs représentations textuelles, dans notre cas, des sorties caractères et des sorties consonnes/voyelles. Nous avons proposé une nouvelle technique de combinaisons des représentations textuelles pour l’amélioration des performances de reconnaissance.