« Restaurer la parole naturelle chez les personnes paralysées et aphasiques pourrait être réalisé en utilisant une interface cerveau-ordinateur de contrôle d'un synthétiseur de la parole en temps réel.
»
« Une étape préalable est le développement d'un synthétiseur de parole produisant une parole intelligible en temps réel avec un nombre raisonnable de paramètres de contrôle.
Des chercheurs français du CNRS et de l'Inserm présentent, dans la revue PLOS Computational Biology, un synthétiseur vocal qui convertit en temps réel les mouvements des principaux articulateurs de la parole (langue, mâchoire, palais et lèvres) en langage et qui pourra être utilisé dans de futures applications d'interface cerveau-ordinateur.
Un algorithme basé sur une technique d'intelligence artificielle d’apprentissage automatique, de type réseau de neurones profonds (deep neural network), communément appelé apprentissage profond, est utilisé pour décoder les mouvements à l’aide de capteurs posés sur la langue, les lèvres et la mâchoire.
Ces travaux, publiés dans la revue PLoS Computational Biology, portaient sur la reconstruction de la parole en temps réel, sur la conception d’un synthétiseur pilotable a priori par n’importe quel locuteur (après une courte période de calibration du système), et sur l’absence de restriction sur le vocabulaire, ce qui est classiquement le cas dans les systèmes de lecture labiale automatique.
Psychomédia avec sources : Gipsa Lab, PLOS Computational Biology.
Tous droits réservés