Les récentes avancées de l'intelligence artificielle, telles que l'exploit symbolique de battre l'humain au jeu de go, ont été réalisées grâce aux techniques dites d'apprentissage profond reposant sur ce qui a été appelé des « réseaux neuronaux
».
Ces techniques sont inspirées du traitement de l'information par le cerveau.
Dans une étude, publiée dans la revue Trends in Cognitive Sciences, des chercheurs de Google DeepMind et de l'Université de Stanford mettent à jour une théorie développée à l'origine pour expliquer comment les humains et les autres animaux apprennent. Ils décrivent l'importance potentielle de cette théorie comme cadre pour le développement d'agents d'intelligence artificielle.
D'abord publiée en 1995, la théorie stipule que l'apprentissage est le produit de deux systèmes complémentaires. Le premier acquiert progressivement des connaissances et des compétences suite à l'exposition à des expériences, et le deuxième emmagasine des expériences spécifiques afin qu'elles puissent être rejouées pour permettre leur intégration effective dans le premier système.
La théorie des systèmes d'apprentissage complémentaires décrit comment ces deux systèmes se complètent pour fournir une solution puissante à des problèmes clés d'apprentissage auxquels le cerveau fait face, explique le professeur de psychologie James McClelland de l'Université Stanford, auteur principal de l'étude de 1995 et auteur senior de la présente étude.
Le premier système, situé dans le néocortex (couches externes des hémisphères du cerveau), a été inspiré par les précurseurs des réseaux neuronaux profonds d'aujourd'hui (des modèles d'intelligence artificielle ayant contribué au développement de modèles de psychologie cognitive depuis plusieurs décennies). Comme avec les réseaux profonds actuels, ces systèmes contiennent plusieurs couches de neurones entre les informations d'entrée et de sortie, et la connaissance dans ces réseaux se trouve dans leurs connexions.
Ces connexions sont progressivement programmées par l'expérience, donnant naissance à leur capacité à reconnaître des objets, percevoir la parole, comprendre et produire le langage, et même sélectionner des actions optimales dans un jeu et d'autres situations où l'action intelligente dépend de la connaissance acquise.
De tels systèmes sont confrontés à un dilemme lorsque de nouvelles informations doivent être apprises : si des changements importants sont faits aux connexions pour introduire rapidement de nouvelles connaissances dans les connexions, elles provoquent une distorsion de toutes les autres connaissances déjà stockées dans les connexions.
« C'est là que le système d'apprentissage complémentaire intervient
», explique McClelland. Chez les humains et d'autres mammifères, ce second système est situé dans l'hippocampe.
« En stockant d'abord l'information d'une nouvelle expérience dans l'hippocampe, nous la rendons disponible pour une utilisation immédiate et pour la rejouer au cortex, l'entrelaçant avec expérience en cours et l'information stockée à partir d'autres expériences pertinentes.
»
Ce système en deux composantes permet donc à la fois l'apprentissage immédiat et l'intégration progressive dans la représentation structurée des connaissances dans le néocortex.
« Les composantes de l'architecture des réseaux de neurones qui ont réussi à atteindre des performances de niveau humain dans une variété de jeux informatiques comme Space Invaders et Breakout ont été inspirées par la théorie des systèmes d'apprentissage complémentaires
», indique Dharshan Kumaran, neuroscientifique chez DeepMind et premier auteur de l'étude.
« Comme dans la théorie, ces réseaux de neurones exploitent une mémoire tampon semblable à l'hippocampe qui stocke les épisodes récents de jeu et les rejoue en mode entrelacé. Cela amplifie grandement l'utilisation de l'expérience actuelle de jeu et évite qu'une situation locale particulière de l'expérience domine l'apprentissage dans le système
».
Kumaran a collaboré avec McClelland et avec Demis Hassabis, cofondateur de DeepMind et également coauteur de l'étude, dans un travail élaborant le rôle de l'hippocampe.
« À mon avis
», dit Hassabis, la version étendue de la théorie des systèmes d'apprentissage complémentaire est susceptible de continuer à fournir un cadre pour la recherche future, non seulement dans les neurosciences, mais aussi dans la recherche visant à développer une intelligence artificielle générale, notre objectif à Google DeepMind ».
Excellente vidéo expliquant la technique d'« apprentissage profond »
Pour plus d'informations sur l'intelligence artificielle, voyez les liens plus bas.
Psychomédia avec sources : Cell Press, Trends in Cognitive Sciences.
Tous droits réservés