Patricia Waldron
Les vérificateurs de faits pourraient disposer d’un nouvel outil dans leur lutte contre la désinformation.
Une équipe de chercheurs de l’université Cornell (USA) a mis au point une technique permettant d’apposer un « filigrane » lumineux sur les vidéos, afin de détecter si celles-ci sont fausses ou ont été manipulées.
L’idée consiste à dissimuler des informations dans des fluctuations lumineuses quasi invisibles lors d’événements et dans des lieux importants, tels que des interviews, des conférences de presse ou même des bâtiments entiers, comme le siège des Nations Unies. Ces fluctuations sont conçues pour passer inaperçues à l’œil humain, mais sont enregistrées sous forme de filigrane caché dans toute vidéo capturée sous un éclairage spécial, qui peut être programmé dans les écrans d’ordinateur, les lampes photographiques et l’éclairage intégré. Chaque source lumineuse filigranée possède un code secret qui peut être utilisé pour vérifier le filigrane correspondant dans la vidéo et révéler toute modification malveillante.
Peter Michael, étudiant diplômé en informatique qui a dirigé ces travaux, présentera l’étude intitulée « Noise-Coded Illumination for Forensic and Photometric Video » (Éclairage codé par bruit pour la vidéo médico-légale et photométrique) le 10 août lors du SIGGRAPH 2025 à Vancouver, en Colombie-Britannique.
Le montage vidéo trompeur n’est pas une nouveauté. Mais avec l’IA générative et les réseaux sociaux, il est plus rapide et plus facile que jamais de diffuser de fausses informations.
« Autrefois, la vidéo était considérée comme une source de vérité, mais ce n’est plus une hypothèse que nous pouvons faire », a déclaré Abe Davis, professeur adjoint d’informatique au Cornell Ann S. Bowers College of Computing and Information Science, qui a été le premier à concevoir cette idée. « Aujourd’hui, vous pouvez créer pratiquement n’importe quelle vidéo. Cela peut être amusant, mais aussi problématique, car il est de plus en plus difficile de distinguer le vrai du faux. »
Pour répondre à ces préoccupations, des chercheurs avaient déjà mis au point des techniques permettant d’apposer directement un filigrane sur les fichiers vidéo numériques, en apportant de minuscules modifications à des pixels spécifiques qui peuvent être utilisées pour identifier les séquences non manipulées ou déterminer si une vidéo a été créée par une IA. Cependant, ces approches dépendent de l’utilisation par le créateur de la vidéo d’une caméra ou d’un modèle d’IA spécifique, un niveau de conformité qu’il peut être irréaliste d’attendre de la part d’acteurs malveillants potentiels.
En intégrant le code dans l’éclairage, la nouvelle méthode garantit que toute vidéo réelle du sujet contient le filigrane secret, quelle que soit la personne qui l’a capturée. L’équipe a montré que les sources lumineuses programmables, comme les écrans d’ordinateur et certains types d’éclairage intérieur, peuvent être codées à l’aide d’un petit logiciel, tandis que les lumières plus anciennes, comme de nombreuses lampes disponibles dans le commerce, peuvent être codées en y fixant une petite puce informatique de la taille d’un timbre-poste. Le programme de la puce fait varier la luminosité de la lumière en fonction du code secret.

Alors, quelles informations secrètes sont cachées dans ces filigranes, et comment permettent-elles de révéler qu’une vidéo est fausse ? « Chaque filigrane contient une version à faible fidélité et horodatée de la vidéo non manipulée sous un éclairage légèrement différent. Nous appelons cela des vidéos codées », précise M. Davis. « Lorsque quelqu’un manipule une vidéo, les parties manipulées commencent à contredire ce que nous voyons dans ces vidéos codées, ce qui nous permet de voir où des modifications ont été apportées. Et si quelqu’un essaie de générer une fausse vidéo avec l’IA, les vidéos codées qui en résultent ressemblent simplement à des variations aléatoires. »
Une partie du défi dans ce travail consistait à rendre le code largement imperceptible pour les humains. « Nous avons utilisé des études issues de la littérature sur la perception humaine pour éclairer notre conception de la lumière codée », ajoute Peter Michael. « Le code est également conçu pour ressembler à des variations aléatoires qui se produisent déjà dans la lumière, appelées « bruit », ce qui le rend également difficile à détecter, à moins de connaître le code secret. »
Si un adversaire coupe des séquences, par exemple issues d’une interview ou d’un discours politique, un analyste judiciaire disposant du code secret peut voir les lacunes. Et si l’adversaire ajoute ou remplace des objets, les parties modifiées apparaissent généralement en noir dans les vidéos récupérées à l’aide du code.
L’équipe a utilisé avec succès jusqu’à trois codes distincts pour différents éclairages dans la même scène. Avec chaque code supplémentaire, les motifs deviennent plus complexes et plus difficiles à falsifier.
« Même si un adversaire sait que cette technique est utilisée et parvient à déchiffrer les codes, sa tâche reste beaucoup plus difficile », explique M. Davis. « Au lieu de falsifier la lumière d’une seule vidéo, il doit falsifier chaque vidéo codée séparément, et toutes ces falsifications doivent être cohérentes entre elles. »
Ils ont également vérifié que cette approche fonctionne dans certains environnements extérieurs et sur des personnes ayant différentes carnations.
Davis et Michael préviennent toutefois que la lutte contre la désinformation est une course à l’armement et que les adversaires continueront à imaginer de nouvelles façons de tromper.
« C’est un problème important et persistant », a conclu Davis. « Il ne va pas disparaître, et en fait, il ne fera que s’aggraver. »
Zekun Hao, Ph.D. ’23, et Serge Belongie de l’université de Copenhague sont coauteurs de l’étude. Ce travail a bénéficié d’un soutien partiel de la part d’une bourse d’études supérieures en sciences et ingénierie de la défense nationale et du Pioneer Centre for AI. Patricia Waldron est rédactrice pour le Cornell Ann S. Bowers College of Computing and Information Science.
Article : « Noise-Coded Illumination for Forensic and Photometric Video Analysis » – DOI : 10.1145/3742892