
Des escroqueries émotionnelles de plus en plus crédibles
À Phnom Penh, Hen Sokry, utilisatrice de Facebook, a été bouleversée par des images de personnes handicapées appelant à l’aide. Touchée, elle envisageait de faire un don. Ce n’est qu’après l’intervention de ses enfants qu’elle a découvert que ces images avaient été générées par intelligence artificielle et diffusées par des escrocs.
Elle n’est pas la seule. De nombreux internautes cambodgiens se laissent piéger par des contenus émotionnels fabriqués de toutes pièces, destinés à susciter la compassion et à récolter de l’argent.
Désormais, Hen Sokry ne fait plus confiance qu’à des organisations reconnues.
L’IA, nouvel outil des escrocs en ligne
Ces contenus frauduleux, souvent très émouvants, inquiètent les experts en technologie et en éducation aux médias. Les victimes sont souvent des personnes peu familiarisées avec les outils numériques, notamment les personnes âgées..
« Certains escrocs publient des vidéos très pathétiques, accompagnées de QR codes pour les dons », explique Hok Lida, formatrice en éducation aux médias.
« Ils savent exactement quel type d’image fait réagir. Leur but est de manipuler l’émotion pour soutirer de l’argent. »
Selon elle, les internautes les plus vulnérables sont ceux qui manquent de recul face aux contenus numériques.
Les aînés en zones rurales, premières cibles
Pour Chy Sophat, expert en sécurité numérique, ces arnaques ciblent surtout les personnes âgées vivant en milieu rural, peu habituées à vérifier les sources en ligne.
« Ce type d’escroquerie existait déjà via des appels téléphoniques, mais l’IA les rend aujourd’hui bien plus convaincantes », alerte-t-il.
Même constat pour Hun Sopheara, utilisateur actif des réseaux sociaux, qui s’inquiète de voir de plus en plus de contenus trompeurs circuler sur les plateformes.
« Beaucoup n’arrivent pas à faire la différence entre une vraie vidéo et une image générée par IA. »
Les appels aux dons frauduleux se multiplient
Him Meusiet, un autre internaute, affirme qu’il ne fait plus de dons à des sources non vérifiées. Il note une forte augmentation de vidéos utilisant des images générées par IA pour récolter de l’argent.
Parfois, des images réelles de patients sont même reprises sans autorisation, avec des QR codes redirigeant vers des comptes frauduleux.
Que faire face à cette menace numérique ?
Tam Prohim, enseignant en IA et cybersécurité à l’Université Américaine de Phnom Penh, appelle à une réponse collective : autorités, ONG, et citoyens.
« L’IA n’est ni bonne ni mauvaise en soi. Il faut apprendre à l’utiliser avec prudence », souligne-t-il.
Il propose que les autorités créent une liste de sources fiables, facilement identifiables en ligne.
À court terme, il recommande de lancer des vidéos de sensibilisation sur les réseaux sociaux, et d’encourager l’usage d’outils pour repérer les contenus générés par IA.
Sensibilisation et réponse collective
Pour Chy Sophat, il est urgent de renforcer l’éducation aux médias et de mieux identifier les fraudeurs.
« Il faut agir ensemble pour alerter sur ces nouvelles arnaques et apprendre à reconnaître les contenus suspects. »
Hun Sopheara, de son côté, reconnaît que certaines actions ont été entreprises par les autorités, mais les juge encore insuffisantes face à la montée des arnaques liées à l’IA.
Mise en garde officielle
Le 9 juillet, le ministère cambodgien de l’Intérieur a publié un avertissement officiel : des images générées par IA représentant des orphelins ou des personnes handicapées sont utilisées pour solliciter de faux dons.
Les autorités recommandent :
- de ne pas faire de dons à des comptes non vérifiés,
- de ne pas cliquer sur des liens suspects,
- de signaler les arnaques sur Facebook, Telegram ou TikTok,
- et de ne pas partager ces contenus.
Avec les progrès rapides de l’IA, ces manipulations deviennent de plus en plus crédibles. La vigilance s’impose.
Avec l’aimable autorisation de Cambodianess, qui nous permet d’offrir cet article à un public francophone.
{link} Ce post a été trouvé sur internet par notre rédaction voici la source Source

