Gare à cette nouvelle escroquerie à la méthode bien ficelée. Cette arnaque utilise des techniques d’intelligence artificielle pour cloner la voix de proches afin de soutirer de l’argent aux victimes. Un homme de 50 ans, qui a failli en être victime, a témoigné auprès de La Charente Libre. Le 22 septembre dernier, il a reçu un appel prétendument de sa mère. La voix semblait identique : « J’entends "allo mon fils, c’est maman" », raconte-t-il. La prétendue mère expliquait avoir perdu ses affaires à la gare et demandait son numéro de carte bancaire. Toutefois, des décalages dans les réponses et des intonations étranges ont éveillé ses soupçons. L’homme a fini par raccrocher.
Le directeur de la plateforme cybermalveillance.gouv.fr, Jean-Jacques Latour, interrogé par nos confrères, a détaillé le procédé de cette arnaque. « Les cybercriminels vont récupérer des échantillons de voix des proches des personnes qu’ils veulent usurper. Ils vont les chercher sur les réseaux sociaux ou sur des vidéos en ligne. Ils sont capables ensuite, par le biais d’un petit logiciel d’intelligence artificielle, d’enregistrer un propos, n’importe lequel, avec la voix de la personne. » Et d’expliquer auprès de TF1 : « Il va falloir dicter au logiciel ce que l’on veut dire pour qu’il le retranscrive, donc il va y avoir un temps de latence. »
Les experts recommandent, en cas de doute, de poser une question personnelle à laquelle seul le proche peut répondre ou de rappeler directement la personne sur son numéro habituel. Une étude de la Starling Bank montre qu’en Grande-Bretagne 28 % des personnes interrogées ont déjà été victimes de ce type d’arnaque, mais 46 % ignorent encore son existence.
Le directeur de la plateforme cybermalveillance.gouv.fr, Jean-Jacques Latour, interrogé par nos confrères, a détaillé le procédé de cette arnaque. « Les cybercriminels vont récupérer des échantillons de voix des proches des personnes qu’ils veulent usurper. Ils vont les chercher sur les réseaux sociaux ou sur des vidéos en ligne. Ils sont capables ensuite, par le biais d’un petit logiciel d’intelligence artificielle, d’enregistrer un propos, n’importe lequel, avec la voix de la personne. » Et d’expliquer auprès de TF1 : « Il va falloir dicter au logiciel ce que l’on veut dire pour qu’il le retranscrive, donc il va y avoir un temps de latence. »
Premier cas en France
C’est la première fois que ce type d’attaque est signalé en France. Cependant, de nombreux cas ont déjà été répertoriés aux Etats-Unis, assure l’expert. Par exemple, une mère de famille américaine a cru que sa fille avait été enlevée après avoir entendu sa voix demander de l’aide au téléphone. En réalité, sa voix avait été clonée et utilisée pour réclamer une rançon. Des stars françaises ont également été la cible de ces escroqueries comme Alain Delon ou encore Alain Chabat.Les experts recommandent, en cas de doute, de poser une question personnelle à laquelle seul le proche peut répondre ou de rappeler directement la personne sur son numéro habituel. Une étude de la Starling Bank montre qu’en Grande-Bretagne 28 % des personnes interrogées ont déjà été victimes de ce type d’arnaque, mais 46 % ignorent encore son existence.
Grâce à l’IA, des escrocs clonent la voix de sa mère pour l’arnaquer
Des escrocs ont utilisé l’intelligence artificielle pour recréer la voix d’une mère afin d’extorquer de l’argent à son fils
www.20minutes.fr
Grâce à l’IA, des escrocs clonent la voix de sa mère pour l’arnaquer
Des escrocs ont utilisé l’intelligence artificielle pour recréer la voix d’une mère afin d’extorquer de l’argent à son fils
www.20minutes.fr