Deepfakes et IA : les nouvelles armes des cybercriminels
L'intelligence artificielle a révolutionné de nombreux secteurs, mais elle a également offert aux cybercriminels des outils d'une puissance sans précédent. En 2025, 9% des cyberattaques impliquent désormais des deepfakes, et ce chiffre ne cesse de croître.
L'arnaque au président 2.0
L'arnaque au président, technique qui consiste à se faire passer pour un dirigeant d'entreprise afin d'obtenir des virements frauduleux, a atteint un nouveau niveau de sophistication grâce aux deepfakes vocaux et vidéo.
Cas réel : 25 millions d'euros dérobés
En février 2025, une multinationale a perdu 25 millions d'euros après qu'un employé a participé à une visioconférence où tous les autres participants étaient des deepfakes, y compris le "directeur financier" qui a ordonné les virements.
Les criminels utilisent désormais des technologies capables de cloner une voix à partir de quelques secondes d'enregistrement audio, souvent récupérées sur les réseaux sociaux ou lors d'appels téléphoniques préliminaires.
Le phishing 2.0 : des messages hyperréalistes
L'IA générative permet aux cybercriminels de créer des emails de phishing parfaitement rédigés, sans les fautes d'orthographe traditionnelles qui permettaient autrefois de les identifier. Ces messages sont personnalisés à grande échelle grâce à l'analyse automatique des données personnelles disponibles en ligne.
"Cher client, votre compte a été suspendue. Cliquez ici pour le reactiver immediatement."
"Bonjour Jean, nous avons détecté une connexion inhabituelle sur votre compte depuis Lyon. Par mesure de sécurité, veuillez vérifier vos accès."
Les deepfakes vocaux : une menace invisible
Le clonage vocal représente peut-être la menace la plus insidieuse. En quelques secondes, une IA peut reproduire n'importe quelle voix avec une fidélité troublante. Les escrocs l'utilisent pour :
Appeler des personnes âgées en se faisant passer pour un petit-enfant en détresse.
Imiter la voix d'un supérieur hiérarchique pour ordonner des virements urgents.
Tromper les systèmes d'authentification vocale des banques et services sécurisés.
Comment détecter un deepfake ?
Bien que les deepfakes deviennent de plus en plus convaincants, certains indices peuvent encore les trahir :
🎥 Pour les vidéos
- • Clignements des yeux anormaux ou absents
- • Synchronisation labiale imparfaite
- • Contours du visage flous ou scintillants
- • Éclairage incohérent sur le visage
- • Mouvements de tête saccadés
🎤 Pour les audios
- • Intonation monotone ou artificielle
- • Respirations absentes ou mécaniques
- • Bruits de fond incohérents
- • Réponses trop rapides ou hésitations étranges
- • Qualité audio trop parfaite
Les procédures de vérification indispensables
Règle d'or
Pour toute demande urgente impliquant de l'argent ou des données sensibles, raccrochez et rappelez la personne sur un numéro que vous connaissez déjà.
Établissez un mot de passe familial
Convenez d'un mot ou phrase secrète avec vos proches pour vérifier l'identité lors d'appels urgents.
Procédure de double validation
En entreprise, exigez une confirmation par un second canal (email + appel, ou validation par un collègue) pour tout virement important.
Posez des questions personnelles
Des questions sur des souvenirs partagés ou des détails que seule la vraie personne connaîtrait.
Méfiez-vous de l'urgence
Les escrocs créent toujours un sentiment d'urgence pour empêcher la réflexion. Prenez le temps de vérifier.
L'IA contre l'IA : la réponse de Notron
Face à des attaques générées par l'IA, seule une défense basée sur l'IA peut offrir une protection efficace. Notron utilise des algorithmes avancés pour détecter les signaux subtils qui trahissent les contenus frauduleux.
Copiez-collez un lien, un SMS, une adresse email ou un numéro suspect et notre IA vous indique en quelques secondes s'il s'agit d'une arnaque.
L'IA au service de votre protection
Vérifiez tout contenu suspect avec Notron : liens, SMS, emails, numéros de téléphone.