Fraudes à l’identité synthétique : les attaques de type Deepfake sont sur le point de se multiplier.

Partagez cet article sur les réseaux sociaux

L’intelligence artificielle et l’essor de la technologie deepfake sont des sujets sur lesquels les chercheurs en cybersécurité mettent en garde depuis des années, mais ils sont maintenant officiellement arrivés. Les cybercriminels sont de plus en plus nombreux à partager, développer et déployer des technologies d’imitation profonde pour contourner les protections de sécurité biométriques et commettre des crimes tels que le chantage, l’usurpation d’identité, les attaques par ingénierie sociale, etc.

Il est temps de préparer les mesures de cybersécurité.

Selon un nouveau rapport de Recorded Future, l’augmentation spectaculaire des offres de technologies et de services d’imitation profonde sur le Dark Web est le premier signe qu’une nouvelle vague de fraude est sur le point de déferler, et ce rapport prédit de manière inquiétante que les imitations profondes sont en augmentation parmi les acteurs de la menace ayant des objectifs et des intérêts très variés.

Au cours des prochaines années, les acteurs de la menace, qu’ils soient criminels ou étatiques, impliqués dans des opérations de désinformations et d’influences, se tourneront probablement vers les deepfakes, car la consommation de médias en ligne évolue de plus en plus vers le principe « voir pour croire » et le pari qu’une partie de la communauté en ligne continuera d’être sensible aux informations fausses ou trompeuses », indique le rapport de Recorded Future.

La plupart des discussions dans des forums clandestins est axée sur les modes d’emploi et les meilleures pratiques, ce qui semble démontrer un effort généralisé dans le domaine de la cybercriminalité pour perfectionner les outils de deepfake.

L’été dernier, FireEye a profité de l’événement Black Hat USA 2020 pour avertir le public de la grande disponibilité des outils de deepfake open-source avec traitement du langage naturel, vision par ordinateur et reconnaissance vocale pré-entraînés. Le scientifique de FireEye, Philip Tully, a déclaré à l’époque que le monde était dans le « calme avant la tempête ».

La tempête semble se préparer juste au-dessus de l’horizon.

De même, Experian a récemment publié un rapport qualifiant la fraude d’identité synthétique de cybercriminalité financière à la croissance la plus rapide.

« L’augmentation progressive de la fraude à l’identité synthétique est probablement due à de multiples facteurs, notamment les violations de données, l’accès aux données du dark web et le contexte de concurrence en matière de prêts financiers », indique le rapport Experian « Future of Fraud Forecast ». « Alors que les méthodes de détection de la fraude continuent de mûrir, Experian s’attend à ce que les fraudeurs utilisent de faux visages pour la vérification biométrique. Ces ‘visages Frankenstein’ utiliseront l’IA pour combiner les caractéristiques faciales de différentes personnes afin de former une nouvelle identité, créant un défi pour les entreprises qui s’appuient sur la technologie de reconnaissance faciale comme une partie importante de leur stratégie de prévention de la fraude. »

La menace croissante de la technologie deepfake est discutée depuis des années. En 2019 déjà, l’artiste du deepfake Hao Li a tiré la sonnette d’alarme en affirmant que l’IA entre les mains des cybercriminels serait une immense menace pour la sécurité.

« Je pense qu’il y aura bientôt un point où il ne sera plus possible de détecter si les vidéos sont fausses ou non », a déclaré Li à l’automne 2019. « Nous avons commencé à avoir des conversations sérieuses dans l’espace de recherche sur la façon d’aborder cela et de discuter de l’éthique autour de deepfake et des conséquences. »

Il y a déjà eu quelques cas de cybercrimes de deepfake réussis par le passé. En septembre 2019, des cybercriminels ont créé l’audio truqué d’un PDG pour appeler son entreprise et lui demander de transférer 243 000 dollars sur son compte bancaire.

Le cyber-expert Brian Foster a récemment expliqué que la protection contre les « deepfakes » allait nécessiter une refonte radicale de l’approche traditionnelle. Il envisage un système automatisé de confiance zéro qui, de la même manière, tire parti de l’IA et de l’apprentissage automatique pour analyser de multiples paramètres de sécurité.

« Globalement, plus nous pouvons automatiser et utiliser l’intelligence pour accomplir les processus de vérification, mieux c’est, a conseillé Foster. « Cette approche s’appuie moins sur les capacités de reconnaissance par les humains, qui, avouons-le, est à l’origine de beaucoup d’erreurs; mais plus sur de meilleures pratiques et des outils innovants, qui peuvent être mis en œuvre bien plus rapidement et avec plus de succès que n’importe quelle politique statique d’entreprise. »

Partagez cet article sur les réseaux sociaux

Un commentaire

  1. Arme à double tranchant ! Aussi pratique pour nuire que pour se disculper… tout document compromettant pourra être qualifié de fake dorénavant. Plus l’eau est trouble, moins on voit à travers…

Laisser un commentaire