Développement de l'intégration audio-visuelle des informations sensorielles dans la perception de la parole [Development of audio-visual integral of sensory information in speech perception] Le projet porte sur l'étude de l'intégration audiovisuelle de la parole en fonction de l'équilibre entre le traitement des signaux auditifs et visuels, ainsi que sur les niveaux de traitement de l'intégration. Ces questions sont abordées à travers l'étude de l'impact de la dégradation du signal auditif et du signal visuel sur l'intégration ; l'examen de trois types de personnes : adultes tout venant, personnes avec implants cochléaires et personnes souffrant d'un trouble spécifique du langage. Le projet combine les techniques comportementales (réponses d'identification) et des données de neuroimagerie (MEG) afin de mettre en évidence le décours temporel de l'activation cérébrale et du traitement de l'information audiovisuelle. Un second projet porte sur l'intégration des signaux provenant des lèvres et des mains dans la perception de la Langue française Parlée Complétée. Nous avons recours à des techniques électrophysiologiques et à de l'eye tracking pour examiner l'intégration et la séquentialité dans le traitement des informations manuelles et labiales de la LPC [The project aims at examining the role of visual information (lip reading) in speech perception under normal and noisy conditions. Adults, children at different ages, as well as cases of atypical language development will be considered, such as deaf children with cochlear implants, or dysphasic children. A combination of behavioral and neuroimaging techniques is used. A second project aims deals with the integration of signals ensuing from lips and hands in cued speech perception. Electrophysiological methods and eye tracking are used to investigate these issues.]