Leo S.F. Lin, Charles Sturt University; Duane Aslett, Charles Sturt University; Geberew Tulu Mekonnen, Charles Sturt University et Mladen Zecevic, Charles Sturt University
Le développement rapide de l’intelligence artificielle (IA) présente à la fois des avantages et des risques. Une tendance préoccupante est l’utilisation abusive du clonage vocal. En quelques secondes, les escrocs peuvent cloner une voix et faire croire qu’un ami ou un membre de la famille a besoin d’argent de toute urgence. Les médias, dont CNN, avertissent que ces types d’escroqueries peuvent toucher des millions de personnes. Alors que la technologie permet aux criminels d’envahir plus facilement nos espaces personnels, il est plus important que jamais de rester prudent quant à son utilisation.
Qu’est-ce que le clonage vocal ?
L’essor de l’IA a créé des possibilités de génération d’images, de textes, de voix et d’apprentissage automatique.
Si l’IA présente de nombreux avantages, elle offre également aux fraudeurs de nouvelles méthodes pour exploiter les individus en vue d’obtenir de l’argent.
Vous avez peut-être entendu parler des « deepfakes« , où l’IA est utilisée pour créer de fausses images, de fausses vidéos et même de faux sons, impliquant souvent des célébrités ou des hommes politiques.
Le clonage vocal, un type de technologie deepfake, crée une réplique numérique de la voix d’une personne en capturant ses schémas d’élocution, son accent et sa respiration à partir de brefs échantillons audio.
Une fois le modèle vocal capturé, un générateur de voix d’IA peut convertir le texte saisi en un discours très réaliste ressemblant à la voix de la personne ciblée.
Grâce aux progrès technologiques, le clonage de la voix peut être réalisé à partir d’un échantillon audio de trois secondes seulement.
Alors qu’une simple phrase comme « Bonjour, il y a quelqu’un ? » peut conduire à une escroquerie par clonage de voix, une conversation plus longue permet aux escrocs de capturer plus de détails vocaux. Il est donc préférable de rester bref tant que vous n’êtes pas sûr de l’identité de l’appelant.
Le clonage vocal a des applications précieuses dans les domaines du divertissement et des soins de santé, permettant aux artistes de travailler à distance (même à titre posthume) et d’aider les personnes souffrant de troubles de l’élocution.
Cependant, elle soulève de sérieuses préoccupations en matière de respect de la vie privée et de sécurité, ce qui souligne la nécessité de mettre en place des garde-fous.
Comment il est exploité par les criminels
Les cybercriminels exploitent la technologie de clonage de la voix pour se faire passer pour des célébrités, des autorités ou des personnes ordinaires à des fins de fraude.
Ils créent l’urgence, gagnent la confiance de la victime et demandent de l’argent par le biais de cartes-cadeaux, de virements électroniques ou de crypto-monnaies. Le processus commence par la collecte d’échantillons audio à partir de sources telles que YouTube et TikTok. Ensuite, la technologie analyse l’audio pour générer de nouveaux enregistrements. Une fois la voix clonée, elle peut être utilisée dans des communications trompeuses, souvent accompagnées d’une usurpation de l’identité de l’appelant pour paraître digne de confiance.
De nombreux cas d’escroquerie au clonage de voix ont fait la une des journaux. Par exemple, des criminels ont cloné la voix d’un directeur d’entreprise des Émirats arabes unis pour orchestrer un vol de 51 millions de dollars.
Un homme d’affaires de Mumbai a été victime d’une escroquerie par clonage de voix impliquant un faux appel de l’ambassade d’Inde à Dubaï.
En Australie, des escrocs ont récemment utilisé un clone vocal du Premier ministre du Queensland, Steven Miles, pour tenter d’inciter les gens à investir dans le bitcoin.
Les adolescents et les enfants sont également visés. Lors d’une escroquerie au kidnapping aux États-Unis, la voix d’une adolescente a été clonée et ses parents ont été manipulés pour qu’ils se plient à leurs exigences. Il suffit de quelques secondes d’audio pour que l’IA clone la voix d’une personne.
Quelle est l’ampleur du phénomène ?
Une étude récente montre que 28 % des adultes au Royaume-Uni ont été confrontés à des escroqueries par clonage de voix l’année dernière, 46 % d’entre eux ignorant l’existence de ce type d’escroquerie.
Elle met en évidence un manque de connaissances important, qui expose des millions de personnes au risque de fraude.
En 2022, près de 240 000 Australiens ont déclaré avoir été victimes d’escroqueries liées au clonage de voix, ce qui a entraîné une perte financière de 568 millions de dollars australiens.
Comment les personnes et les organisations peuvent s’en prémunir
Les risques posés par le clonage vocal nécessitent une réponse pluridisciplinaire. Les personnes et les organisations peuvent mettre en œuvre plusieurs mesures pour se prémunir contre l’utilisation abusive de la technologie du clonage vocal.
Tout d’abord, les campagnes de sensibilisation du public et l’éducation peuvent contribuer à protéger les personnes et les organisations et à limiter ces types de fraude. La collaboration public-privé peut fournir des informations claires et des options de consentement pour le clonage vocal.
Deuxièmement, les personnes et les organisations devraient chercher à utiliser la sécurité biométrique avec la détection de l’activité, qui est une nouvelle technologie capable de reconnaître et de vérifier une voix vivante plutôt qu’une fausse. Les organisations qui utilisent la reconnaissance vocale devraient envisager d’adopter l’authentification multifactorielle.
Troisièmement, le renforcement des capacités d’enquête contre le clonage vocal est une autre mesure cruciale pour les services répressifs.
Enfin, des réglementations précises et actualisées pour les pays sont nécessaires pour gérer les risques associés.
Les services répressifs australiens reconnaissent les avantages potentiels de l’IA.
Cependant, les inquiétudes concernant le « côté obscur » de cette technologie ont suscité des appels à la recherche sur l’utilisation criminelle de « l’intelligence artificielle pour le ciblage des victimes« .
Des appels sont également lancés en faveur de stratégies d’intervention que les services répressifs pourraient utiliser pour lutter contre ce problème.
Ces efforts devraient s’inscrire dans le cadre du plan national de lutte contre la cybercriminalité, qui met l’accent sur des stratégies proactives, réactives et réparatrices.
Ce plan national prévoit un devoir de diligence pour les prestataires de services, qui se reflète dans la nouvelle législation du gouvernement australien visant à protéger le public et les petites entreprises.
La législation prévoit de nouvelles obligations en matière de prévention, de détection, de signalement et d’interruption des escroqueries.
Cette mesure s’appliquera aux organismes réglementés tels que les opérateurs de télécommunications, les banques et les fournisseurs de plateformes numériques. L’objectif est de protéger les consommateurs en prévenant, détectant, signalant et perturbant les cyber-escroqueries par tromperie.
Réduire le risque
Le coût de la cybercriminalité pour l’économie australienne étant estimé à 42 milliards de dollars australiens, il est essentiel de sensibiliser le public et de mettre en place des mesures de protection efficaces.
Des pays comme l’Australie reconnaissent le risque croissant. L’efficacité des mesures de lutte contre le clonage vocal et d’autres fraudes dépend de leur adaptabilité, de leur coût, de leur faisabilité et de leur conformité réglementaire.
Toutes les parties prenantes – gouvernement, citoyens et forces de l’ordre – doivent rester vigilantes et sensibiliser le public afin de réduire le risque de victimisation.
Leo S.F. Lin, Maître de conférences en études policières, Charles Sturt University; Duane Aslett, Maître de conférences en études policières, Charles Sturt University; Geberew Tulu Mekonnen, Maître de conférences, École d’études policières, Charles Sturt University et Mladen Zecevic, Chargé de cours à l’école d’études policières, Charles Sturt University
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l’article original. Traduction – Enerzine.com