Telegram recrute de vraies femmes pour des deepfakes d’arnaques et elles ne le savent pas

Telegram recrute des visages




TL;DR : Des dizaines de chaînes Telegram recrutent de vraies personnes — majoritairement des femmes — pour vendre leurs données faciales à des réseaux criminels. Ces visages sont intégrés dans des logiciels de deepfake en temps réel pour alimenter des arnaques sentimentales et financières à l’échelle industrielle. Résultat : 5,7 milliards de dollars de pertes aux États-Unis en 2024, et une question qui dérange — êtes-vous capable de reconnaître un faux visage en appel vidéo ?


Telegram recrute des visages. Les escrocs les recyclent. Vous payez l’addition.

Le recrutement de visages IA : une filière criminelle qui s’organise au grand jour

Une enquête de WIRED publiée ce dimanche lève le voile sur un phénomène aussi discret que redoutable : des dizaines de chaînes Telegram proposent ouvertement des contrats de « mannequinat facial » à des candidats qui, pour la plupart, ignorent totalement la nature réelle du travail qu’ils acceptent.

Le principe est simple — et c’est précisément ce qui le rend efficace. Des femmes sont approchées pour fournir leurs données faciales en échange d’une rémunération. L’offre ressemble à un contrat de mannequinat classique. La réalité est toute autre : ces visages sont intégrés dans des logiciels d’échange de visages en temps réel, utilisés pour mener jusqu’à 100 appels vidéo frauduleux par jour avec de vraies victimes.

Bienvenue dans la chaîne d’approvisionnement du crime organisé version 2026.


Pig butchering, salles IA et ChatGPT : la machine à arnaquer tourne à plein régime

Pour comprendre l’ampleur du phénomène, il faut remonter à janvier dernier, quand WIRED avait déjà publié des documents internes d’un site d’escroquerie de type pig butchering — expression aussi peu élégante que parlante pour désigner ces arnaques où la victime est « engraissée » affectivement avant d’être dépouillée financièrement.

Ces documents révélaient que les opérateurs sont formés à utiliser ChatGPT et DeepSeek pour construire des conversations émotionnellement ciblées avec leurs victimes. En décembre, une autre enquête avait mis en lumière Haotian, une plateforme chinoise d’échange de visages ayant encaissé au moins 3,9 millions de dollars en cryptomonnaies — dont près de la moitié en provenance directe d’une place de marché sanctionnée par les États-Unis.

Ce n’est plus artisanal. C’est une industrie.

Satnam Narang, ingénieur de recherche chez Tenable, résume sobrement la situation : « Pour le prix d’un café, les prédateurs peuvent désormais générer des messages linguistiquement parfaits et émotionnellement percutants, conçus pour piéger des victimes partout dans le monde. » Il qualifie 2026 d’« âge sombre des arnaques sentimentales ». André Gentit, chez DeepDive, aurait du mal à trouver un meilleur titre de chapitre.


Appel vidéo = preuve d’identité ? Cette certitude vient de prendre un sacré coup

Pendant longtemps, la vérification par appel vidéo était considérée comme le bouclier ultime contre les arnaques en ligne. « Tu veux me prouver que tu es réel ? On se fait un appel. » Ce réflexe, désormais, ne vaut plus grand-chose.

Les « salles IA » au sein des complexes d’arnaque d’Asie du Sud-Est permettent l’échange de visages en temps réel pendant des appels vidéo en direct. La personne que vous voyez sourire face à votre webcam n’existe pas — ou plutôt, elle existe, mais elle n’a aucune idée que son visage est en train de vous séduire depuis un bureau climatisé de Birmanie ou du Cambodge.

Une étude publiée en février dans le British Journal of Psychology confirme ce que les experts pressentaient depuis un moment : les gens surestiment systématiquement leur capacité à identifier un visage généré par IA. Autrement dit, plus vous êtes confiant dans votre détection, plus vous êtes vulnérable.


Des influenceurs synthétiques, des arnaques sentimentales : la même logique de fond

Le phénomène ne se limite pas aux escroqueries criminelles. Il s’inscrit dans une tendance de fond que DeepDive couvre depuis plusieurs mois : la marchandisation de l’identité synthétique.

Le New York Times rapportait récemment l’existence de Melanskia, une femme amish entièrement générée par IA, forte de plus de 300 000 abonnés sur Instagram, qui fait la promotion d’un complément alimentaire non testé — sans jamais révéler sa nature artificielle. Ce n’est pas une arnaque au sens juridique du terme. Mais c’est la même mécanique : un visage fabriqué, une confiance captée, une décision d’achat influencée.

La différence entre Melanskia et un deepfake criminel ? L’intention, et l’échelle du préjudice. La technologie, elle, est identique.


Pourquoi cette tendance va s’aggraver avant de s’améliorer

La Federal Trade Commission américaine a signalé 5,7 milliards de dollars de pertes liées aux escroqueries à l’investissement en 2024 — les arnaques sentimentales servant régulièrement de porte d’entrée vers la tromperie financière. Ces chiffres ne tiennent pas compte des victimes qui ne déclarent pas, par honte ou par ignorance.

Le vrai problème structurel, c’est ce que les chercheurs appellent l’écart de détection : la capacité des outils IA à fabriquer des faux progresse exponentiellement, tandis que la capacité humaine à les détecter stagne, voire régresse à mesure que la confiance dans les appels vidéo s’érode.

Recruter de vrais visages plutôt que d’en synthétiser de toutes pièces n’est pas un hasard : les visages réels, avec leurs imperfections, leurs micro-expressions authentiques, leurs variations d’éclairage naturelles, trompent mieux les algorithmes de détection que les visages 100 % générés. L’humain devient la matière première de sa propre manipulation.


Le point de vue DeepDive

Ce que révèle l’enquête de WIRED va bien au-delà d’un fait divers technologique. Elle illustre un basculement conceptuel majeur : l’IA n’est plus seulement un outil de fraude, elle est devenue une infrastructure criminelle à part entière, avec ses chaînes d’approvisionnement, ses ressources humaines, ses outils SaaS et ses métriques de performance (100 appels vidéo par jour, vraiment).

Chez DeepDive, on répète depuis longtemps que la maîtrise des outils IA n’est pas optionnelle pour les professionnels. Cette affaire le rappelle brutalement : ne pas comprendre comment fonctionne un deepfake en 2026, c’est naviguer à vue dans un environnement où le faux est devenu indiscernable du vrai.

La prochaine étape ? Les législateurs commencent à réagir — lentement, comme toujours — mais la vraie défense reste l’éducation. Savoir qu’un appel vidéo ne prouve plus rien. Savoir que le recrutement de « données faciales » est une activité criminelle à ne pas accepter. Et savoir, surtout, que la méfiance n’est plus de la paranoïa — c’est de l’hygiène numérique.

La prochaine fois que quelqu’un de charmant vous propose un appel vidéo pour « prouver qu’il est réel », demandez-lui de tenir une feuille avec le jour et l’heure écrits à la main. Ou mieux : appelez-le sans prévenir. Les deepfakes, ça ne décroche pas encore en temps réel à la demande.


Tags suggérés : deepfake, arnaque en ligne, IA et sécurité, Telegram, pig butchering, escroquerie sentimentale, intelligence artificielle, cybersécurité

Mot-clé principal : deepfake arnaque
Mots-clés secondaires : arnaque sentimentale IA, deepfake temps réel, recrutement Telegram escroquerie, visage IA fraude


Dis-moi quel titre tu retiens et si tu veux ajuster le ton, la longueur d’un chapitre ou ajouter une section spécifique.

Facebook
Twitter
LinkedIn
WhatsApp

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée Champs requis marqués avec *

Poster commentaire

Catégories

Catégories

Actu IA

Articles récents

Commentaires récents