Les tentatives de fraude par « deepfakes » : +2137% en 3 ans

Les tentatives de fraude utilisant des deepfakes ont explosé de 2137 % en trois ans, selon une étude. Cette évolution inquiète le secteur financier, contraint de renforcer ses mesures de cybersécurité pour contrer ces usurpations d’identité sophistiquées.

Les deepfakes, ces faux contenus générés par intelligence artificielle, ne sont plus seulement une curiosité technologique. Leur utilisation à des fins frauduleuses explose, particulièrement dans le secteur financier, où les tentatives de fraude par usurpation d’identité ont bondi de 2137 % depuis trois ans. L’étude de Signicat révèle une augmentation alarmante des attaques visant à prendre le contrôle des comptes bancaires ou à manipuler les procédures d’authentification. Pourtant, seulement 22 % des institutions financières se sont équipées d’outils de détection basés sur l’IA. Face à cette menace grandissante, les entreprises doivent repenser leurs stratégies et adopter des solutions multicouches alliant biométrie, intelligence artificielle et surveillance continue pour sécuriser leurs clients et leurs opérations.

La montée en puissance des deepfakes dans la fraude financière

Les deepfakes, ces falsifications numériques ultraréalistes générées par intelligence artificielle, ont bouleversé le paysage de la fraude financière. Autrefois peu répandus, ils sont aujourd’hui l’un des types d’usurpation d’identité les plus courants. Selon l’étude, 42,5 % des tentatives de fraude détectées dans le secteur financier reposent sur l’IA. En trois ans, les deepfakes sont passés de l’ombre à la lumière, devenant une arme redoutable pour les cybercriminels. L’un des cas les plus retentissants (et publics) : cette visioconférence où seule la comptable était humaine.

Cette technologie est exploitée principalement à travers deux types d’attaques. Les attaques par présentation consistent à manipuler les systèmes de reconnaissance en utilisant des vidéos en temps réel ou des images truquées. Elles sont souvent utilisées pour tromper les processus d’authentification faciale. L’un des cas les plus connu, avec masque en silicone et visioconférence trouble, l’affaire de l’ex Ministre de la Défense Le Drian.

Les attaques par injection, plus sophistiquées, visent à insérer directement des deepfakes dans des systèmes bancaires via des logiciels malveillants, contournant ainsi les vérifications biométriques et les processus KYC (Know Your Customer).

L’évolution rapide de ces techniques met en difficulté les systèmes traditionnels de détection des fraudes, qui peinent à différencier un deepfake d’une véritable interaction humaine.

Des institutions financières en retard face à la menace

Malgré la montée en flèche des fraudes basées sur l’IA, une grande majorité des institutions financières ne disposent toujours pas d’outils de prévention adaptés. L’étude de Signicat révèle qu’à peine 22 % des entreprises du secteur financier ont intégré des solutions de détection basées sur l’intelligence artificielle. Ce retard expose les banques, fintechs et entreprises de paiement à des risques accrus, alors même que les cybercriminels perfectionnent leurs méthodes.

Le Chief Product & Marketing Officer de Signicat, Pinar Alpay, met en garde : « Il y a trois ans, les attaques par deepfake ne représentaient que 0,1 % des tentatives de fraude détectées. Aujourd’hui, elles représentent 6,5 %, soit 1 cas sur 15. Les fraudeurs exploitent des techniques que les systèmes classiques ne peuvent plus identifier. […] En combinant intelligence artificielle, biométrie et authentification renforcée, les entreprises peuvent mieux protéger leurs clients et leurs opérations« , souligne-t-elle.

L’enjeu dépasse la simple mise à jour des technologies. Il s’agit également d’éduquer les employés et les clients pour qu’ils puissent identifier les signaux d’alerte d’une fraude par deepfake et éviter d’être piégés par ces usurpations d’identité avancées.

Vers une protection multicouche face aux deepfakes

Face à cette explosion des fraudes par deepfake, une seule solution s’impose : adopter une protection multicouche. L’étude insiste sur la nécessité d’une approche combinée, intégrant plusieurs niveaux de défense pour anticiper et bloquer ces attaques sophistiquées.

DataSecuritybreach.fr recommande une approche en quatre étapes :

  1. Une évaluation précoce des risques : identifier rapidement les comportements suspects grâce à l’intelligence artificielle.
  2. Une authentification renforcée : utiliser la biométrie faciale et des méthodes de vérification d’identité avancées.
  3. Une surveillance continue : mettre en place un contrôle en temps réel pour détecter toute tentative de fraude en cours.
  4. La formation et la veille : former ses équipes et mettre en place une veille des fuites de données impactant l’entreprise, les salariés, Etc. peuvent permettre la prise de conscience active face à du Social Engineering via deepfake.

L’adoption de ces nouvelles pratiques devient urgente. Sans une réaction rapide, les entreprises risquent de devenir les victimes privilégiées d’une cybercriminalité dopée à l’IA.

L’essor des deepfakes dans la fraude financière démontre une chose : les cybercriminels ont toujours un temps d’avance sur les systèmes de protection traditionnels. Face à une augmentation vertigineuse des tentatives d’usurpation d’identité, les entreprises doivent accélérer l’intégration de solutions de cybersécurité avancées. Mais seront-elles capables d’adapter leurs systèmes assez vite pour contenir cette menace ?

Pour suivre l’actualité cybersécurité en temps réel, inscrivez-vous à la newsletter et rejoignez nos canaux WhatsApp et réseaux sociaux !

Laisser un commentaire Annuler la réponse