L’IA superficielle, alternative à l’apprentissage profond ?

L'IA superficielle, alternative à l'apprentissage profond ?

L’intelligence artificielle et l’apprentissage profond sont au cœur de nombreuses innovations technologiques d’aujourd’hui. Toutefois, une étude récente publiée dans Scientific Reports suggère que des architectures plus simples pourraient être tout aussi efficaces, sans nécessiter autant de complexité de calcul.

Il y a environ 65 ans, le premier réseau neuronal artificiel, le Perceptron, ne comptait qu’une seule couche. Pour traiter des tâches de classification plus complexes, des réseaux neuronaux multicouches ont été développés. Il s’agit de la composante essentielle de la mise en œuvre actuelle des algorithmes d’apprentissage profond. Il améliore la performance des tâches analytiques et physiques sans intervention humaine, et se trouve derrière les produits d’automatisation quotidiens tels que les technologies émergentes pour les voitures auto-conduites et les robots de conversation autonomes.

La nouvelle recherche explore si des réseaux moins complexes pourraient être tout aussi performants à l’aide de réseaux peu profonds inspirés du cerveau de type feedforward, tout en nécessitant potentiellement une complexité de calcul moindre.

Le professeur Ido Kanter, qui a dirigé l’étude, explique : “Une réponse positive remet en question le besoin d’architectures d’apprentissage profond et pourrait orienter le développement d’un matériel unique pour la mise en œuvre efficace et rapide de l’apprentissage superficiel“. Selon lui, cela pourrait également réduire la complexité et la consommation d’énergie. “En outre, cela démontrerait comment l’apprentissage superficiel inspiré par le cerveau a fait progresser les capacités de calcul tout en réduisant la complexité et la consommation d’énergie.”

Nous avons montré qu’un apprentissage efficace sur une architecture artificielle peu profonde peut atteindre les mêmes taux de réussite de classification que ceux obtenus précédemment par les architectures d’apprentissage profond composées de nombreuses couches et filtres, mais avec une complexité de calcul moindre“, a indiqué pour sa part Yarden Tzach, étudiant en doctorat et contributeur à ce travail. “Cependant, la réalisation efficace d’architectures peu profondes nécessite un changement dans les propriétés de la technologie GPU avancée et de futurs développements matériels dédiés”, a-t-il ajouté.

Légende image / Figure : Schéma de l’apprentissage automatique profond composé de nombreuses couches (à gauche) par rapport à l’apprentissage cérébral superficiel composé de quelques couches avec une largeur agrandie (à droite). Pour plus de détails, voir https://www.nature.com/articles/s41598-023-32559-8

L’apprentissage efficace sur les architectures peu profondes inspirées du cerveau va de pair avec l’apprentissage efficace de l’arbre dendritique, qui est basé sur des recherches expérimentales antérieures du professeur Kanter sur l’adaptation sous-dendritique à l’aide de cultures neuronales, ainsi que sur d’autres propriétés anisotropes des neurones, comme les différentes formes d’ondes de pointes, les périodes réfractaires et les taux de transmission maximaux.

Pendant des années, la dynamique cérébrale et le développement de l’apprentissage automatique ont fait l’objet de recherches indépendantes, mais récemment, la dynamique cérébrale a été révélée comme une source de nouveaux types d’intelligence artificielle efficace.

Crédit image / Prof. Ido Kanter, Bar-Ilan University

[ Rédaction ]
Lien principal : dx.doi.org/10.1038/s41598-023-32559-8

Articles connexes