Une démonstration théorique inédite montre qu’une technique appelée surparamétrisation améliore les performances en apprentissage automatique quantique pour des applications qui déconcertent les ordinateurs classiques.
« Nous pensons que nos résultats seront utiles pour utiliser l’apprentissage automatique afin de comprendre les propriétés des données quantiques, comme la classification des différentes phases de la matière dans la recherche sur les matériaux quantiques, ce qui est très difficile sur les ordinateurs classiques », a déclaré Diego Garcia-Martin*, chercheur postdoctoral au Laboratoire national de Los Alamos.
Le défi de l’optimisation
L’apprentissage automatique, ou intelligence artificielle, implique généralement de former des réseaux de neurones pour traiter les informations – les données – et apprendre à résoudre une tâche donnée. En résumé, on peut imaginer le réseau de neurones comme une boîte avec des boutons, ou paramètres, qui prend des données en entrée et produit une sortie qui dépend de la configuration de ces boutons.
« Pendant la phase d’apprentissage, l’algorithme met à jour ces paramètres au fur et à mesure qu’il apprend, cherchant à trouver leur réglage optimal », a expliqué Garcia-Martin. « Une fois les paramètres optimaux déterminés, le réseau neuronal devrait être capable d’extrapoler ce qu’il a appris des instances d’entraînement à de nouvelles données encore inconnues. »
Le bond en performance par surparamétrisation
La surparamétrisation, un concept bien connu en apprentissage automatique classique qui ajoute de plus en plus de paramètres, peut éviter ce blocage. Les implications de la surparamétrisation dans les modèles d’apprentissage automatique quantique étaient mal comprises jusqu’à présent.
Dans le nouvel article, l’équipe de Los Alamos établit un cadre théorique pour prédire le nombre critique de paramètres à partir duquel un modèle d’apprentissage automatique quantique devient surparamétrisé. À un certain point critique, l’ajout de paramètres entraîne un bond dans les performances du réseau et le modèle devient nettement plus facile à former.
« En établissant la théorie qui sous-tend la surparamétrisation dans les réseaux de neurones quantiques, notre recherche ouvre la voie à l’optimisation du processus d’apprentissage et à l’amélioration des performances dans les applications quantiques pratiques », a expliqué Martin Larocca, auteur principal du manuscrit et chercheur postdoctoral à Los Alamos.
Naviguer dans le paysage de l’apprentissage automatique
Pour illustrer les découvertes de l’équipe de Los Alamos, Marco Cerezo, théoricien quantique du laboratoire, a décrit une expérience de pensée dans laquelle un randonneur cherchant la montagne la plus haute dans un paysage sombre représente le processus d’apprentissage. Le randonneur peut seulement se déplacer dans certaines directions et évalue ses progrès en mesurant l’altitude à l’aide d’un système GPS limité.
Dans cette analogie, le nombre de paramètres dans le modèle correspond aux directions disponibles pour le randonneur à se déplacer, a déclaré Marco Cerezo. « Un paramètre permet un mouvement de va-et-vient, deux paramètres permettent un mouvement latéral et ainsi de suite », a-t-il dit. Un paysage de données aurait probablement plus de trois dimensions, contrairement au monde de notre randonneur hypothétique.
En synthèse
La surparamétrisation semble être une véritable révolution dans le domaine de l’apprentissage automatique quantique. Alors qu’elle permet d’éviter le blocage lors de la phase d’entraînement, son utilisation doit être maîtrisée et adaptée au contexte pour ne pas mener à une complexité excessive du modèle. Cette avancée théorique ouvre la voie à de nouvelles perspectives pour l’optimisation des réseaux de neurones quantiques et promet des performances améliorées dans les applications quantiques pratiques.
* Il est coauteur d’un nouvel article de l’équipe de Los Alamos sur la technique dans Nature Computational Science.
L’article : « Théorie de la surparamétrisation dans les réseaux neuronaux quantiques ». Martín Larocca, Nathan Ju, Diego García-Martín, Patrick J. Coles et Marco Cerezo. Nature Computational Science. DOI: 10.1038/s43588-023-00467-6