Pensé que las estafas no podían ser más aterradoras. Luego leí el informe de esta semana: las estafas impulsadas por IA aumentaron más del 450% en el último año — deepfakes, voces falsas de CEO, bots de phishing e incluso trampas románticas ajustadas por modelos generativos. ([TRM Labs])
Esto es lo que se me quedó:
Las estafas de deepfake son ahora comunes: los estafadores utilizan videos o voces generados por IA (a veces imitando a CEOs como Elon Musk) para ofrecer tratos falsos de “Duplica tu Cripto”. Las víctimas perdieron más de $5M en una transmisión en vivo de deepfake. ([TRM Labs])
Los agentes de IA escalan ataques: los bots recopilan datos personales, automatizan el contacto y crean engaños altamente personalizados a gran escala. Estos no son mensajes aleatorios — están diseñados para hacerte confiar. ([TRM Labs])
Los fraudes de 'pig butchering' aumentaron un 40%: los esquemas de manipulación a largo plazo utilizan mensajes generados por IA para construir relaciones falsas antes de robar criptomonedas. Esta tendencia ahora representa una gran parte de los fondos perdidos. ([Sumsub / Investopedia])
---
lo que estoy haciendo ahora:
1. Si alguien se comunica ofreciendo grandes retornos? Pausa.
2. No haré clic en un enlace de un mensaje de voz o video — especialmente si se siente urgente.
3. Solo conecto billeteras en sitios verificados.
4. Cada suplantación, captura de pantalla o mensaje urgente ahora me hace verificar dos veces antes de actuar.
No es solo un riesgo de criptomonedas. La IA nos convirtió a todos en objetivos.
Esto no es un consejo financiero — es mi investigación y una advertencia. Sigo aprendiendo, pero ya no estoy desinformada.
— Lena 🌱

