Fabrizio Gilardi | Emma Hoes | UZH
La plupart des gens sont généralement plus préoccupés par les risques immédiats de l’intelligence artificielle que par un avenir théorique dans lequel l’IA menacerait l’humanité. Une nouvelle étude de l’université de Zurich révèle que les personnes interrogées établissent une distinction claire entre les scénarios abstraits et les problèmes concrets et spécifiques, et qu’elles prennent ces derniers très au sérieux.
Il existe un large consensus sur le fait que l’intelligence artificielle est associée à des risques, mais il y a des différences dans la manière de comprendre ces risques et de les classer par ordre de priorité. Une perception largement répandue met l’accent sur les risques théoriques à long terme, comme celui de l’IA menaçant potentiellement la survie de l’humanité. Un autre point de vue commun se concentre sur des préoccupations immédiates telles que la façon dont les systèmes d’IA amplifient les préjugés sociaux ou contribuent à la désinformation. Certains craignent que l’accent mis sur les « risques existentiels » dramatiques ne détourne l’attention des problèmes actuels plus urgents que l’IA cause déjà aujourd’hui.
Risques actuels et futurs de l’IA
Pour examiner ces points de vue, une équipe de politologues de l’université de Zurich a mené trois expériences en ligne à grande échelle auprès de plus de 10 000 participants aux États-Unis et au Royaume-Uni. Certains sujets se sont vu présenter divers titres décrivant l’IA comme un risque catastrophique. D’autres ont lu des articles sur les menaces actuelles telles que la discrimination ou la désinformation, et d’autres encore sur les avantages potentiels de l’IA.
L’objectif était d’examiner si les avertissements concernant une catastrophe lointaine causée par l’IA diminuent la vigilance à l’égard des problèmes actuels.
Une plus grande préoccupation pour les problèmes actuels
« Nos résultats montrent que les personnes interrogées sont beaucoup plus préoccupées par les risques actuels posés par l’IA que par les catastrophes potentielles futures », résume le professeur Fabrizio Gilardi du département de sciences politiques de l’UZH. Même si les textes sur les menaces existentielles ont amplifié les craintes concernant les scénarios de ce type, les répondants sont beaucoup plus préoccupés par les problèmes actuels, notamment les biais systématiques dans les décisions de l’IA et les pertes d’emploi dues à l’IA.
Toutefois, l’étude montre également que les gens sont capables de faire la distinction entre les dangers théoriques et les problèmes concrets et spécifiques, et qu’ils prennent les deux au sérieux.
Mener un large dialogue sur les risques liés à l’IA
L’étude comble ainsi une lacune importante dans les connaissances. Dans le débat public, on craint souvent que le fait de se concentrer sur des scénarios sensationnels pour l’avenir ne détourne l’attention des problèmes urgents du présent. L’étude est la première à fournir des données systématiques montrant que la conscience des menaces réelles actuelles persiste même lorsque les gens sont confrontés à des avertissements apocalyptiques.
« Notre étude montre que la discussion sur les risques à long terme ne se fait pas automatiquement au détriment de la vigilance à l’égard des problèmes actuels », explique Emma Hoes, coauteur de l’étude. Mme Gilardi ajoute que « le discours public ne devrait pas être “soit l’un, soit l’autre”. Il est nécessaire de comprendre et d’apprécier simultanément les défis immédiats et les défis futurs potentiels. »
Légende illustration : L’IA va-t-elle prendre nos emplois ou même menacer l’existence de l’humanité ? Selon une étude de l’université de Zurich, nous craignons davantage pour nos emplois que pour notre survie
Emma Hoes, Fabrizio Gilardi. Existential Risk Narratives About Artificial Intelligence Do Not Distract From Its Immediate Harms. Proceedings of the National Academy of Sciences. April 17, 2025. DOI: 10.1073/pnas.2419055122