AI models can learn language through the eyes of a baby, study shows

Jean Delaunay

Des scientifiques entraînent un modèle d’IA comme un bébé humain à apprendre le langage

L’intelligence artificielle peut-elle apprendre le langage comme un bébé ? Les chercheurs ont testé cela en enregistrant des images de la vie d’un enfant et en les transmettant à un système d’IA.

Que se passe-t-il lorsque vous entraînez un système d’intelligence artificielle (IA) au même rythme qu’un bébé ?

Une équipe de chercheurs de l’Université de New York (NYU) a équipé un bébé d’une caméra frontale et a enregistré des vidéos depuis l’âge de six mois jusqu’à son deuxième anniversaire.

Ils ont réussi à enregistrer environ un pour cent des heures d’éveil de l’enfant, qu’ils ont utilisé pour entraîner un système d’IA ou un réseau neuronal – un modèle informatique capable d’apprendre des modèles à partir des données d’entrée.

Ils ont publié leurs résultats dans la revue Science.

Malgré cette quantité de données relativement faible par rapport aux ensembles de données massifs habituels utilisés pour entraîner l’IA, elle était suffisante pour l’apprentissage des langues.

« Nous montrons, pour la première fois, qu’un réseau neuronal formé sur cette contribution réaliste sur le plan du développement d’un seul enfant peut apprendre à lier les mots à leurs homologues visuels », Wai Keen Vong, chercheur au Center for Data Science de NYU et responsable de l’article. premier auteur, a déclaré dans un communiqué.

« Nos résultats démontrent comment les avancées algorithmiques récentes, associées à l’expérience naturaliste d’un enfant, ont le potentiel de remodeler notre compréhension de l’acquisition précoce du langage et des concepts », a-t-il ajouté.

Un outil pour en savoir plus sur l’apprentissage des langues

Les systèmes d’IA de premier plan subissent une formation sur des ensembles de données textuelles contenant des milliards de mots, alors que les enfants ne sont exposés qu’à des millions de mots par an.

En utilisant des modèles d’IA pour étudier l’apprentissage des langues, « nous pouvons aborder les débats classiques sur les ingrédients dont les enfants ont besoin pour apprendre les mots – s’ils ont besoin de préjugés spécifiques à la langue, de connaissances innées ou simplement d’un apprentissage associatif pour commencer », a déclaré Brenden Lake, professeur adjoint. à NYU et auteur principal du journal.

Les chercheurs disposaient de 60 heures d’images contenant quelque 250 000 mots communiqués.

Ces mots étaient associés à des images vidéo capturant ce que l’enfant voyait lorsque ces mots étaient prononcés lors d’activités telles que les repas, la lecture de livres ou la récréation.

Les chercheurs ont ensuite utilisé deux modules : un pour les images vidéo et un autre pour le discours transcrit destiné à l’enfant.

Ceux-ci ont été combinés et entraînés avec un apprentissage contrastif, un type d’apprentissage automatique utilisé pour entraîner le modèle à comprendre les associations entre les signaux visuels et linguistiques.

L’étape suivante pour les chercheurs consistait à tester le modèle – appelé modèle Child’s View for Contrastive Learning (CVCL) – de la même manière qu’ils mesuraient l’apprentissage des mots des bébés.

Ils ont montré au modèle un mot et quatre images, lui demandant de choisir l’image qui correspondait au mot.

Les résultats ont révélé que le modèle a appris de nombreux mots de la vie quotidienne d’un enfant.

Le système pourrait également appliquer quelques mots à différentes images non vues pendant la formation, ce que les enfants apprendraient également à faire.

« Ces résultats suggèrent que cet aspect de l’apprentissage des mots est réalisable à partir du type de données naturalistes que les enfants reçoivent tout en utilisant des mécanismes d’apprentissage relativement génériques tels que ceux trouvés dans les réseaux neuronaux », a déclaré Lake.

Laisser un commentaire

cinq × 1 =