L’une des choses les plus fascinante à observer chez les bébés humains est la vitesse avec laquelle ils apprennent leur langue maternelle. La recherche en sciences cognitive des derniers 20 ans a montré que cet apprentissage démarre pendant la première année de vie, alors que l’enfant ne parle pas encore. En quelques mois, le bébé arrive à déterminer quelles sont les consonnes et les voyelles de sa langue et à découper la parole continue en mots. Cet apprentissage, très difficile chez l’adulte qui apprends une langue étrangère, a lieu spontanément, sans effort apparent, alors que le bébé est plongé dans un environnement complexe, et souvent confronté à plusieurs langues à la fois. Particulièrement troublant est le fait que cet apprentissage ne semble pas suivre un ordre logique (apprendre les sons, puis les mots, puis les phrases), comme le ferait un adulte, mais plutot, le bébé semble mener les apprentissages de tous ces niveaux linguistiques en parallèle.
Nous cherchons à décrypter cet apprentissage spectaculaire par une approche d’“ingénierie inverse”. Le pari est de comprendre comment le bébé aprends, en construisant un système artificiel qui apprenne en suivant les même étapes. Pour cela, nous appliquons des techniques tirée des sciences de l’ingénieur (reconnaissance automatique de la parole, traitement du signal, web ‘sémantique’, apprentissage machine) à de gros corpus d’interactions verbales adulte/enfant dans différentes langues. Les algorithmes proposés devront être plausibles du point de vue psychologique (pas de connaissances à priori sur la langue apprise, pas de supervision directe des “parents”), et biologique (possibilité d’implémentation neuro-mimétique). Ces algorithmes constitueront autant d’hypothèses qui seront testées ensuite sur le nourrisson en utilisant des techniques experimentales classiques en psychologie du développement (mesure des mouvements oculaires, enregistrement d’interactions parent/enfant, ou bien imagerie cérébrale non invasive – méthodes optiques ou electroencéphalographiques).
Pour plus de détails (en anglais), voyez le projet ERC BOOTPHON et visitez nos Publications. Si vous êtes intéressés par un stage (école d’ingénieur, master, doctorat) ou bien un emploi de post-doc, cliquez sur l’onglet Emplois.
Des systèmes d’apprentissage automatique de plus en plus puissants sont incorporés dans des applications réelles (par exemple, les voitures sans conducteur, les assistants personnels), alors même qu’ils ne peuvent pas être vérifiées formellement, garantis statistiquement, ou même expliqués. Dans ces cas, une approche empirique peut offrir des informations pertinente sur le fonctionnement ces algorithmes, ainsi que révéler des différences entre cognition artificielle et naturelle.
Plusieurs approches existent pour évaluer les capacités «cognitives» des machines, en partant de la comparaison subjective entre comportement humain et artificiel (Turing, 1950) en allant jusqu’aux évaluations purement numériques (par exemple, en reconnaissance de la parole, le nombre de mots correctement reconnus). Une idée récente consiste à évaluer un système artificiel en termes de capacités mentales, c’est-à-dire de composants fonctionnels au sein d’une architecture cognitive globale (Mueller 2010). Les tests psychophysiques peuvent offrir des tâches simples et faciles à mettre en oeuvre chez l’humain, l’enfant ou la machine (par exemple, en juger si deux stimuli sont identiques ou différents, ou juger si un stimulus est inattendu) qui peut être rendu sélectif à un composant spécifique, ou pour détecter des vulnérabilité de l’algorithme. Ces tests permettent également de mesurer la vitesse d’apprentissage, l’apprentissage par transfert, etc.
Nous mettons au point des jeux de données et des tests d’évaluation conçus pour comparer directement les capacités de l’homme et de la machine dans le domaine de l’apprentissage des langues non supervisé (voir Zero Resource Speech Challenge) et du raisonnement visuel (voir Benchmark de physique intuitive).