Grace Stanley
Une nouvelle innovation mise au point par des chercheurs de Cornell réduit la consommation d’énergie nécessaire au fonctionnement de l’intelligence artificielle, ce qui constitue une avancée vers la réduction de l’empreinte carbone des centres de données et des infrastructures d’IA.
À mesure que les systèmes d’IA deviennent de plus en plus puissants, ils consomment également de plus en plus d’énergie, ce qui soulève des questions urgentes en matière de durabilité. L’équipe de recherche, issue de Cornell Tech et Cornell Engineering, relève ce défi en repensant le matériel qui alimente l’IA, dans le but de le rendre plus rapide, plus efficace et moins gourmand en énergie.
Les chercheurs ont reçu le prix du meilleur article pour leurs conclusions, présentées lors de la conférence internationale 2025 sur la logique programmable sur le terrain et ses applications, qui s’est tenue du 1er au 5 septembre à Leyde, aux Pays-Bas.
Leurs travaux se concentrent sur un type de puce informatique appelé « Field-Programmable Gate Array » (FPGA). Ces puces sont appréciées pour leur flexibilité : contrairement aux puces traditionnelles, elles peuvent être reprogrammées pour différentes tâches après leur fabrication. Cela les rend particulièrement utiles dans des domaines en rapide évolution tels que l’IA, le cloud computing et les communications sans fil.
« Les FPGA sont omniprésents, des cartes réseau et stations de base de communication aux appareils à ultrasons, scanners et même machines à laver », indique Mohamed Abdelfattah, coauteur de l’étude et professeur adjoint à Cornell Tech. « L’IA fait son apparition dans tous ces appareils, et cette architecture contribue à rendre cette transition plus efficace. »
À l’intérieur de chaque puce FPGA se trouvent des unités de calcul appelées blocs logiques. Ces blocs contiennent des composants capables de gérer différents types de calculs. Les tables de consultation (LUT) sont des composants qui peuvent effectuer un large éventail d’opérations logiques en fonction des besoins de la puce. Les chaînes d’additionneurs sont des composants qui effectuent des opérations arithmétiques rapides telles que l’addition de nombres, essentielles pour des tâches telles que la reconnaissance d’images et le traitement du langage naturel.
Dans les conceptions FPGA classiques, ces composants sont étroitement liés, ce qui signifie que les chaînes d’addition ne sont accessibles que par l’intermédiaire des LUT. Cela limite l’efficacité de la puce, en particulier pour les charges de travail d’IA qui reposent fortement sur les opérations arithmétiques.
L’équipe de recherche a développé « Double Duty », une nouvelle architecture de puce, pour résoudre ce problème. Cette conception permet aux LUT et aux chaînes d’additionneurs de fonctionner indépendamment et simultanément au sein du même bloc logique. En d’autres termes, la puce peut désormais en faire plus avec exactement les mêmes ressources de traitement.
Cette innovation est particulièrement importante pour les réseaux neuronaux profonds, des modèles d’IA qui imitent le traitement de l’information par le cerveau humain. Ces modèles sont souvent « déroulés » sur des FPGA, disposés sous forme de circuits fixes pour un traitement plus rapide et plus efficace.
« Nous nous sommes concentrés sur un mode dans lequel les FPGA sont vraiment très performants en matière d’accélération de l’IA », a déclaré M. Abdelfattah, qui est également affilié à Cornell Engineering. « En apportant une petite modification architecturale, nous rendons ces réseaux neuronaux déroulés beaucoup plus efficaces, en tirant parti des atouts des FPGA au lieu de les traiter comme des processeurs génériques. »
Lors des tests, la conception Double Duty a réduit de plus de 20 % l’espace nécessaire à des tâches d’IA spécifiques et a amélioré de près de 10 % les performances globales d’une large gamme de circuits. Cela signifie que moins de puces peuvent être utilisées pour effectuer le même travail, ce qui se traduit par une consommation d’énergie moindre.
L’impact va au-delà de l’IA. « Ce changement profite également aux industries traditionnelles », a déclaré Xilai Dai, doctorant en génie électrique et informatique et l’un des principaux auteurs de l’article. « Il facilite la vérification des puces, la communication sans fil et toute application utilisant l’arithmétique. Vous pouvez intégrer des programmes plus volumineux dans des puces plus petites, ce qui améliore l’efficacité à tous les niveaux. »
Ce travail a débuté sous la forme d’un projet de recherche de premier cycle mené par M. Dai, qui a continué à développer cette idée pour en faire une étude à grande échelle pendant ses études à Cornell. L’autre coauteur principal de l’article, Junius Pun, ancien stagiaire de recherche à Cornell Tech et récemment diplômé de l’université technologique de Nanyang, a également joué un rôle clé dans le travail d’architecture et de modélisation.
Le projet a également réuni des chercheurs de l’université de Toronto et de l’université de Waterloo, ainsi que des ingénieurs d’Altera (anciennement filiale d’Intel). Intel Corporation, la National Science Foundation et le programme CN Yang Scholars de l’université technologique de Nanyang ont soutenu cette recherche.
« Ce fut une formidable collaboration entre des partenaires universitaires et l’industrie, avec de nombreux éléments en mouvement », a conclu M. Abdelfattah. « C’est un pas en avant vers une utilisation des FPGA qui tire parti de leurs atouts, en faisant des dispositifs informatiques vraiment efficaces. »