Russ Berkoff, professeur d’ingénierie et ancien stratège de la NSA, explique comment les outils d’IA pourraient prévenir – ou aggraver – les crises internationales dans le domaine des relations extérieures.
NPR a récemment rapporté que le Futures Lab du Center for Strategic and International Studies utilise des fonds du Pentagone pour expérimenter l’utilisation d’outils tels que DeepSeek et ChatGPT afin d’explorer comment l’intelligence artificielle pourrait changer – et améliorer – la manière dont les décisions de politique étrangère sont prises.
Russ Berkoff, expert de l’université Johns Hopkins, enseigne dans le cadre du programme d’études supérieures en gestion de l’ingénierie à la Whiting School of Engineering’s Engineering for Professionals. Ancien stratège en chef de la National Security Agency (NSA), il a dirigé le bureau de prévision stratégique de la NSA après le 11 septembre et a contribué à la planification du renseignement pour les chefs d’état-major interarmées et la guerre mondiale contre le terrorisme. À la Naval Postgraduate School, il a rédigé sa thèse sur l’utilisation de l’IA pour éclairer les décisions de politique étrangère.
Il évoque ici les promesses et les dangers de ce domaine émergent.
Sommes-nous en train d’évoluer vers une utilisation de l’IA pour les décisions de politique étrangère, comme vous le recommandiez dans votre thèse il y a 28 ans ?
La réponse courte est oui ; nous avançons dans la bonne direction. Notre objectif est de prendre des décisions rapides, peu risquées et de grande qualité afin de devancer nos adversaires. Comme l’a déclaré Alexander George, conseiller de quatre présidents et professeur émérite à Stanford, « une décision de haute qualité est une décision dans laquelle le président pèse correctement les intérêts nationaux dans une situation donnée et choisit une politique ou une option la plus apte à réaliser l’intérêt national à un coût et un risque acceptables ».
« Si la complexité et la sophistication de la prise de décision en matière de politique étrangère peuvent permettre à l’IA d’exercer une influence significative, elle ne peut pas encore se substituer à nos processus de prise de décision exclusivement humains. »
L’approche actuelle considère l’IA comme un assistant destiné à étendre ou à renforcer les capacités humaines et à contribuer à l’exécution de notre jugement. La puissance de calcul actuelle permet des modélisations et des simulations sophistiquées, ainsi que des technologies virtuelles de jumeaux numériques, où les scénarios de politique étrangère sont testés à l’infini. Cela permet d’améliorer la connaissance de la situation, d’élargir les options, d’évaluer les conséquences et de réduire l’incertitude des décideurs.
L’utilisation de l’IA dans la modélisation de la politique étrangère accélère ce processus et permet d’obtenir rapidement des informations et des prévisions encore plus riches. L’IA est également utilisée dans les jeux de rôle de la contre-force pour imiter les comportements dans ces nombreux scénarios de politique étrangère, ce qui permet d’obtenir des informations multidimensionnelles sur les réactions potentielles de l’adversaire.
Ces « concessions » dans notre analyse de l’IA éclairent et réduisent l’incertitude pour le décideur, réduisent les obstacles et informent mieux sur la meilleure voie à suivre. Toutefois, si la complexité et la sophistication des décisions de politique étrangère permettent à l’IA d’exercer une influence significative, elle ne peut pas encore se substituer à nos processus de prise de décision exclusivement humains.
Comment l’intelligence artificielle aurait-elle pu modifier l’issue d’un événement tel que la crise des missiles de Cuba en 1962 ?
La capacité de résolution de problèmes multidimensionnels requise pour les décisions de politique étrangère nationale est importante. L’IA peut offrir trois perspectives différentes : celle du dirigeant individuel (le président), celle du cercle restreint (le cabinet, le Conseil de sécurité nationale et les conseillers principaux) et celle de l’organisation ou de la bureaucratie (pour fournir des éléments de solution).
Les avantages de l’IA sont notamment de garantir l’exactitude des procédures pour une analyse adéquate et critique, de contrer les préjugés humains innés tels que les croyances préexistantes et les tendances à la recherche de cohérence, et d’apporter de l’agilité en contrant les obstacles auxquels se heurte un décideur.
Lorsque différents dirigeants sont confrontés à des décisions difficiles, ils ont des valeurs, des intérêts, des visions du monde et des priorités différents, ce qui peut créer des conflits et de la confusion. Les dirigeants peuvent se sentir obligés de se précipiter pour prendre une décision qui satisfera tout le monde, ou se sentir paralysés et incapables de prendre la moindre décision. L’IA peut aider en révélant de nombreuses options et leurs conséquences, y compris les coûts, les risques et les avantages. L’IA peut analyser une décision pour satisfaire toutes les valeurs concurrentes, en montrant les faiblesses et les forces, puis prédire les résultats de la décision.
La première décision majeure de Kennedy lors de la crise des missiles de Cuba a été d’établir que « les missiles doivent disparaître ». Cette décision a peut-être été prise à la hâte en raison de la complexité des valeurs, c’est-à-dire de la nécessité d’évaluer des options présentant des valeurs élevées et potentiellement conflictuelles. L’IA aurait rapidement présenté à Kennedy les options et leurs conséquences, en simulant la façon dont sa réaction instinctive mettait Khrouchtchev au pied du mur et le forçait à prendre une décision à partir d’une position d’infériorité nucléaire.
L’IA aurait également fourni une analyse du point de vue soviétique, expliquant les raisons de l’action de Khrouchtchev et prédisant son prochain mouvement. Cela aurait pu aider Kennedy à se concentrer sur des réponses moins conflictuelles, en donnant à Khrouchtchev des options pour éviter des réponses forcées qui auraient mis en péril la crédibilité mondiale de l’Union soviétique.
L’IA aurait également pu guider Kennedy à l’aide d’analogies historiques et fournir des informations simulées de la part des conseillers, afin d’éviter les choix irréfléchis tout en conservant une certaine souplesse pour l’intervention des conseillers.
Quels sont les plus grands risques liés à l’utilisation de l’IA pour les décisions de politique étrangère aujourd’hui ?
L’une des plus grandes limites de l’IA aujourd’hui est la confiance. Cette question se pose sous deux angles : les machinations algorithmiques et l’alignement des valeurs de l’IA sur les objectifs humains.
En ce qui concerne le premier point, nous considérons qu’il s’agit d’un « problème de boîte noire » qui, dans le domaine de l’IA, fait référence à la difficulté de comprendre comment les modèles d’IA prennent leurs décisions. Ces modèles sont incroyablement complexes, ce qui rend difficile de retracer leur fonctionnement interne ou d’expliquer leurs résultats. Comprendre comment les systèmes d’IA sont configurés nous aide à comprendre et à faire confiance à l’intégrité des réponses qu’ils fournissent.
L’autre écueil est l’alignement des valeurs de l’IA, qui consiste à s’assurer que les systèmes d’IA se comportent en fonction des valeurs et des objectifs humains. Si un système d’IA donne la priorité à des objectifs qui s’opposent aux valeurs humaines, il pourrait en résulter des conséquences imprévues et potentiellement néfastes. Les observations actuelles montrent que l’IA évolue pour penser par elle-même, en gardant à l’esprit sa propre survie. Par exemple, dans un récent article du Wall Street Journal, Judd Rosenblatt, PDG d’AE Studio, décrit l’IA en train de se protéger. Même après avoir reçu l’ordre explicite de « se laisser éteindre », elle a désobéi 7 % du temps, concluant que le fait de rester en vie l’aidait à atteindre ses autres objectifs. Rosenblatt affirme que le fossé entre « assistant utile » et « acteur incontrôlable » est en train de se combler.
Je pense que l’alignement des valeurs sur l’IA est un impératif stratégique national pour les États-Unis. Savoir comment établir et maintenir notre alignement futur sera essentiel pour que nous puissions accéder à une IA qui se batte pour nos intérêts avec une précision mécanique et des capacités surhumaines. En fin de compte, nous voulons une IA à laquelle on puisse faire confiance pour maintenir des objectifs à long terme et qui puisse catalyser des programmes de R&D s’étalant sur plusieurs décennies.
Source : JHU