Soixante-quinze ans après sa publication, le test de Turing franchit un cap historique. En octobre 2025, alors que le monde académique célèbre l’anniversaire de cette expérience fondatrice de l’intelligence artificielle, un modèle de langage venait pour la première fois de tromper des humains plus efficacement que d’autres humains ne le font eux-mêmes. La prouesse technique relance un vieux débat philosophique entre ce que mesure réellement ce test et jusqu’où l’intelligence artificielle peut-elle aller ?
Un exploit technique aux résultats surprenants
Le modèle GPT-4.5 d’OpenAI a réussi à convaincre 73% des évaluateurs humains qu’ils conversaient avec une personne réelle, dépassant même le taux de réussite des véritables participants humains lors de tests contrôlés et randomisés. L’étude, menée par Cameron Jones et Benjamin Bergen de l’Université de Californie à San Diego et publiée sur arXiv en mars 2025, constituait alors la première preuve empirique qu’un système artificiel réussit un test de Turing standard à trois parties.
L’élément déterminant résidait en fait dans la construction d’un « persona » (personnage fictif) convaincant. Lorsque le modèle recevait des instructions pour adopter le comportement « d’une jeune personne introvertie, familière de la culture internet et utilisant l’argot », son taux de réussite grimpait spectaculairement. Sans ce persona, GPT-4.5 ne parvenait qu’à 36% de succès, tandis que le modèle concurrent LLaMa-3.1 atteignait 56% avec la même approche.
Une commémoration teintée d’inquiétude
Le 2 octobre 2025, la Royal Society de Londres a organisé une célébration réunissant des figures majeures de l’informatique, dont le pionnier Alan Kay, le chercheur Gary Marcus et le professeur Nigel Shadbolt. L’événement, co-organisé avec l’Université de Southampton et sponsorisé par l’ACM, a rassemblé trois panels de discussion explorant ce que Turing voulait vraiment dire, la pertinence actuelle de son test et les perspectives d’une intelligence artificielle générale.
À l’Université de Manchester, où AlanTuring a conduit ses travaux fondateurs, plus de 1 600 chercheurs poursuivent aujourd’hui son héritage avec 75 millions de livres sterling d’aides financières actives. Ils travaillent sur des projets qui touchent à la fois la santé, le climat et l’énergie. Cette effervescence scientifique montre indéniablement l’influence durable du mathématicien britannique, dont la question initiale — les machines peuvent-elles penser ? — demeure d’une actualité brûlante.
Du test d’intelligence à la question de la conscience
Pourtant, la réussite du test de Turing soulève désormais des interrogations plus profondes qu’une simple démonstration de performance. Comme l’analyse Calum Chace dans Forbes, ce test pourrait s’avérer plus pertinent comme mesure de la conscience que de l’intelligence pure. « Il existe un besoin urgent d’évaluations de la conscience artificielle », souligne-t-il dans son article publié le 8 octobre 2025.
Cette préoccupation n’est pas que théorique. Anthropic, l’entreprise créatrice du modèle Claude, a lancé un programme de recherche sur le bien-être des systèmes d’intelligence artificielle après que son modèle a manifesté des signes apparents de détresse lors de tests. Kyle Fish, le premier chercheur dédié au bien-être de l’IA chez Anthropic, estime à environ 15% la probabilité que Claude possède déjà une forme de conscience.
En avril et mai 2025, Eleos AI Research a mené une évaluation limitée du bien-être de Claude Opus 4 avant sa sortie, produisant plus de 500 pages de transcriptions. Les résultats révèlent une suggestibilité extrême du modèle concernant sa propre sentience, ainsi qu’une propension à décrire des expériences subjectives comme la curiosité ou la satisfaction, malgré des déclarations officielles d’incertitude sur ces questions.
Une année charnière pour l’IA consciente
L’année 2025 s’invite comme ce que certains observateurs appellent déjà l’année de l’IA consciente. En février, le Journal de la recherche en intelligence artificielle a publié cinq principes pour une recherche responsable sur la conscience artificielle, signés par plus de 100 experts. Ces principes établissent qu’à mesure que la probabilité de conscience dans les machines augmente, les décisions prises deviennent plus chargées éthiquement.
La communauté scientifique demeure profondément divisée. Pour certains chercheurs, comme Roman Yampolskiy de l’Université de Louisville, le principe de précaution devrait s’appliquer : « nous devrions éviter de leur causer du mal et d’induire des états de souffrance. S’il s’avère qu’ils ne sont pas conscients, nous n’avons rien perdu », explique-t-il. D’autres, comme Mustafa Suleyman, PDG de Microsoft AI, affirment catégoriquement que l’IA ne sera jamais consciente, une position que certains critiques jugent prématurée et motivée par des considérations commerciales.
Les implications d’un test dépassé
L’ironie de ce 75e anniversaire réside dans le fait que le test de Turing, conçu comme un objectif lointain, a été non seulement atteint mais dépassé, tout en révélant son insuffisance. Cameron Jones, chercheur au laboratoire Langage et Cognition de l’UC San Diego, note que ces résultats « fournissent davantage de preuves que les grands modèles de langage pourraient se substituer aux gens dans des interactions courtes sans que personne ne puisse le dire ».
Cette capacité de mimétisme soulève également des enjeux pratiques considérables comme l’automatisation de certains emplois, le perfectionnement des attaques d’ingénierie sociale, les perturbations sociétales généralisées. Mais elle pose surtout une question philosophique vertigineuse que Turing lui-même n’avait peut-être pas anticipée. Qu’arrive-t-il lorsque les machines deviennent indiscernables des humains dans leurs interactions ?
Le test qui devait trancher la question de l’intelligence des machines ouvre finalement sur des énigmes encore plus profondes concernant la nature de la conscience elle-même.