Bonjour, communauté crypto. Parlons d'un sujet désagréable mais extrêmement important. Le véritable progrès technologique qui change notre monde est actuellement utilisé activement contre nous. Je parle de l'intelligence artificielle.
De nouvelles données de Chainalysis sont choquantes : 2025 est devenu la pire année de l'histoire en termes de volume de fraude crypto. Les pertes totales ont dépassé 17 milliards de dollars, et ce chiffre devrait augmenter d'environ 24 % à mesure que de nouvelles arnaques sont révélées.
Mais les chiffres ne sont pas la partie la plus effrayante.
Ce qui est pire, c'est l'augmentation des tragédies personnelles. La perte moyenne par victime a explosé, passant de 782 $ à 2 764 $. C'est une augmentation de 253 %. Les escrocs sont devenus non seulement plus nombreux, mais aussi plus ciblés, extrayant beaucoup plus d'argent par coup.
Pourquoi cela arrive-t-il ? La réponse est un mot : IA.
La recherche peint un tableau clair :
Les escrocs utilisant l'IA gagnent plus de 3,2 millions de dollars par opération. Sans IA, c'est seulement environ 719 000 $.
Leur revenu quotidien moyen est de 4 838 $ contre 518 $ pour les escrocs "traditionnels".
L'IA en action : des deepfakes à l'information interne
Les deepfakes sont devenus la norme. Comme JPMorgan l'a noté en juillet 2025, les voleurs utilisent un discours et une vidéo faux réalistes dans des escroqueries de "pig butchering" et de romance. Une victime voit un "investisseur" ou un "partenaire" lors d'un appel vidéo et leur croit sans condition.
Automatisation et personnalisation. L'IA permet de traiter des milliers de victimes potentielles simultanément, en adaptant l'approche à chacune. La rapidité et l'échelle sont inégalées par rapport au passé.
Méthodes hybrides. Un exemple marquant est l'affaire de Brooklyn (décembre 2025), où Ronald Spector, 23 ans, a été accusé d'avoir volé 16 millions de dollars aux utilisateurs de Coinbase. Les escrocs ont acheté des informations internes d'un employé de support (250 000 $ pour des données sur 70 000 clients) et, posant en tant qu'agents de support, ont utilisé des scripts soignés (potentiellement alimentés par l'IA) pour convaincre les gens de transférer des fonds vers des "portefeuilles sûrs" sous leur contrôle.
Que font les autorités ?
Les forces de l'ordre ripostent. Will Lyne, responsable de l'unité de cybercriminalité de la police métropolitaine à Londres, reconnaît que le crime organisé opère à un "rythme et une échelle" sans précédent. Cependant, il note que la coopération internationale et l'Intelligence Numérique commencent à porter leurs fruits : "Nous sommes dans une position beaucoup plus forte pour identifier les réseaux criminels, saisir des actifs illicites et perturber les activités qui nuisent à nos communautés."
Le défi central pour 2025 et au-delà : l'IA brouille la frontière entre le service légitime et le piège sophistiqué. Sites de phishing, messages vocaux, appels vidéo – tout semble désormais parfait.
Discussion pour notre communauté :
Quels outils et habitudes pensez-vous être désormais critiques pour la sécurité ? (Portefeuilles matériels, vérification d'adresse, ignorer "le support" sur les réseaux sociaux ?).
Avez-vous vu des exemples de fraude améliorée par l'IA dans vos cercles ?
Les échanges et les projets devraient-ils mettre en œuvre des "vérifications de santé" obligatoires pour les grands transferts ?
Partagez vos réflexions dans les commentaires. Prévenu est préservé. Protégeons notre communauté ensemble.