Des économies d’énergie significatives grâce au matériel neuromorphique

Pour la première fois, le TU Graz Institute of Theoretical Computer Science et Intel Labs ont démontré expérimentalement qu’un grand réseau de neurones peut traiter des séquences comme des phrases tout en consommant quatre à seize fois moins d’énergie lorsqu’il fonctionne sur du matériel neuromorphe que sur du matériel non neuromorphe. . La nouvelle recherche est basée sur la puce de recherche neuromorphique Loihi d’Intel Labs, qui s’appuie sur les connaissances des neurosciences pour créer des puces qui fonctionnent de manière similaire au cerveau biologique.

La recherche a été financée par The Human Brain Project (HBP), l’un des plus grands projets de recherche au monde, avec plus de 500 scientifiques et ingénieurs à travers l’Europe qui étudient le cerveau humain. Les résultats de la recherche ont été publiés dans l’article “Memory for AI Applications in Spike-based Neuromorphic Hardware” (DOI 10.1038/s42256-022-00480-w) qui a été publié dans intelligence artificielle de la nature.

Le cerveau humain comme modèle

Les machines intelligentes et les ordinateurs intelligents capables de reconnaître et de déduire de manière autonome des objets et des relations entre différents objets font l’objet de recherches en intelligence artificielle (IA) dans le monde entier. La consommation d’énergie est un obstacle majeur sur la voie d’une application plus large de ces méthodes d’IA. La technologie neuromorphique devrait fournir un coup de pouce dans la bonne direction. La technologie neuromorphique est calquée sur le cerveau humain, qui est très économe en énergie. Pour traiter l’information, ses cent milliards de neurones ne consomment qu’environ 20 watts, soit à peine plus d’énergie qu’une ampoule à économie d’énergie moyenne.

Dans la recherche, le groupe s’est concentré sur les algorithmes qui fonctionnent avec des processus temporels. Par exemple, le système devait répondre à des questions sur une histoire racontée précédemment et comprendre les relations entre les objets ou les personnes du contexte. Le matériel testé était composé de 32 puces Loihi.

Puce de recherche Loihi : jusqu’à seize fois plus économe en énergie que le matériel non neuromorphique

“Notre système est quatre à seize fois plus économe en énergie que les autres modèles d’IA sur du matériel conventionnel”, déclare Philipp Plank, doctorant à l’Institut d’informatique théorique de TU Graz. Plank s’attend à des gains d’efficacité supplémentaires à mesure que ces modèles sont migrés vers la prochaine génération de matériel Loihi, ce qui améliore considérablement les performances de communication puce à puce.

“Les puces de recherche Loihi d’Intel promettent d’apporter des gains à l’IA, notamment en réduisant son coût énergétique élevé”, a déclaré Mike Davies, directeur du Neuromorphic Computing Lab d’Intel. “Notre travail avec TU Graz fournit une preuve supplémentaire que la technologie neuromorphique peut améliorer l’efficacité énergétique des charges de travail d’apprentissage en profondeur d’aujourd’hui en repensant sa mise en œuvre d’un point de vue biologique.”

Imiter la mémoire humaine à court terme

Dans leur réseau neuromorphique, le groupe a reproduit un supposé mécanisme de mémoire du cerveau, comme l’explique Wolfgang Maass, directeur de thèse de Philipp Plank à l’Institute of Theoretical Computer Science : « Des études expérimentales ont montré que le cerveau humain peut stocker des informations pendant une courte période. période de temps même sans activité neuronale, à savoir dans les soi-disant « variables internes » des neurones. Les simulations suggèrent qu’un mécanisme de fatigue d’un sous-ensemble de neurones est essentiel pour cette mémoire à court terme. »

La preuve directe fait défaut car ces variables internes ne peuvent pas encore être mesurées, mais cela signifie que le réseau n’a qu’à tester quels neurones sont actuellement fatigués pour reconstruire quelles informations ont été précédemment traitées. En d’autres termes, les informations précédentes sont stockées dans l’inactivité des neurones, et l’inactivité consomme moins d’énergie.

Symbiose réseau récurrente et feed-forward

Les chercheurs relient à cette fin deux types de réseaux d’apprentissage en profondeur. Les réseaux de rétroaction neuronale sont responsables de la “mémoire à court terme”. Beaucoup de ces modules dits récurrents filtrent les éventuelles informations pertinentes du signal d’entrée et les stockent. Un réseau d’anticipation détermine ensuite lesquelles des relations trouvées sont très importantes pour résoudre la tâche à accomplir. Les relations sans signification sont éliminées, les neurones ne se déclenchent que dans les modules où des informations pertinentes ont été trouvées. Ce processus conduit finalement à des économies d’énergie.

“Les structures neuronales récurrentes devraient fournir les gains les plus importants pour les applications fonctionnant sur du matériel neuromorphique à l’avenir”, a déclaré Davies. “Le matériel neuromorphique comme Loihi est particulièrement adapté pour faciliter les modèles d’activité réseau rapides, clairsemés et imprévisibles que nous voyons dans le cerveau et qui nécessitent les applications d’IA les plus économes en énergie.”

Cette recherche a été financée par Intel et l’Union européenne Projet sur le cerveau humain, qui relie les neurosciences, la médecine et les technologies inspirées du cerveau dans l’UE. A cet effet, le projet crée une infrastructure permanente de recherche numérique, EBRAINS. Ce travail de recherche est ancré dans les Domaines de SpécialisationHumain et Biotechnologie et Information, communication et informatiquedeux des cinq domaines d’activité de TU Graz.

Origine de l’histoire :

Matériel fourni par Université de technologie de Graz. Original écrit par Christoph Pelzl. Remarque : Le style et la durée du contenu peuvent être modifiés.

Leave a Comment