La IA y el fraude cripto: un nuevo frente de batalla

Lunes 23 de Junio de 2025, 23:35





La inteligencia artificial (IA) avanza a gran velocidad, transformando no solo la tecnología, sino también la manera en que concebimos el futuro. Sin embargo, este progreso también trae consigo riesgos cada vez más complejos.

Uno de los efectos más notorios es el impacto en el ámbito del fraude financiero. Solo en 2024, las pérdidas globales por estafas relacionadas con criptomonedas ascendieron a 4.600 millones de dólares. Según un informe de Bitget junto a las firmas de ciberseguridad SlowMist y Elliptic, los deepfakes y la ingeniería social potenciados por IA son las principales técnicas utilizadas por los estafadores.

“Los criminales aprovechan la IA para generar contenido falso más creíble, automatizar ataques y operar a gran escala con costos mínimos”, explicó Carolina Gama, country manager de Bitget en Argentina, a LA NACION. Esto ha incrementado tanto la efectividad como la masividad de las estafas, dificultando su detección.

El estudio identifica tres grandes modalidades de fraude: suplantación con deepfakes, manipulación mediante ingeniería social y esquemas Ponzi disfrazados de proyectos DeFi o NFT. Tras concretar el engaño, los fondos robados se canalizan a través de puentes cross-chain y herramientas de anonimización antes de llegar a mezcladores o exchanges, lo que complica la acción judicial. “Hoy, la verdadera amenaza en cripto no es la volatilidad, es el engaño”, advirtió Gracy Chen, CEO de Bitget.

Para Gama, el enfoque debe estar en la respuesta tecnológica: implementar sistemas de detección proactivos, centros antiestafa 24/7 y soluciones basadas en IA para identificar patrones inusuales. “El riesgo no está en la tecnología per se, sino en cómo se usa para explotar vulnerabilidades humanas como la confianza, la urgencia o el desconocimiento”, coincidió Agostina Miquelarena, líder de Prevención de Fraude y AML en Lemon.

Deepfakes: la nueva cara del engaño

Una de las estrategias más sofisticadas consiste en usar IA para crear videos o audios realistas de figuras conocidas, como Elon Musk, para promocionar proyectos falsos. “Los estafadores no buscan solo contraseñas, apuntan a los puntos ciegos del comportamiento humano”, advierte el informe.


Deepfake de Elon Musk

Suelen crear grupos falsos en Telegram, con identidades simuladas que se muestran como educadas y confiables. Incluso replican chats de soporte para generar una apariencia verosímil.

Ingeniería social 2.0

En este tipo de estafas, los delincuentes manipulan emocional o psicológicamente a las víctimas. Usan términos como “ChatGPT” para dotar de legitimidad a supuestos bots que operarían en Ethereum y detectarían oportunidades de inversión automática.

“El mensaje que venden es simple: la IA hará todo el trabajo por vos y solo resta esperar ganancias. Es una narrativa que explota la creencia de que la IA es sinónimo de dinero fácil”, señala el estudio.

Esquemas Ponzi disfrazados de innovación

Las clásicas estafas Ponzi han encontrado nuevas formas de disfrazarse bajo términos como DeFi, NFTs o GameFi. Se presentan como inversiones legítimas en minería de liquidez o staking de tokens, pero siguen funcionando con la lógica de cubrir las salidas con nuevas entradas. Cuando los organizadores retiran el dinero, el esquema colapsa.

El desafío de la regulación y la educación

Julián Colombo, director general de Bitso Argentina, destacó que los intentos de fraude crecieron en los últimos meses, con técnicas más avanzadas y personalizadas. Para él, el marco regulatorio debe jugar un papel clave: “La IA puede mejorar la experiencia del usuario, pero también amplifica los riesgos si no hay controles adecuados. Necesitamos una regulación inteligente que proteja sin frenar la innovación”.

La suplantación mediante deepfakes, esquemas de ingeniería social y proyectos estilo Ponzi disfrazados de DeFi o NFT se presentan como las principales estafas

Desde Bitget coinciden en que se requieren estándares técnicos y legales más estrictos. Y agregan que la IA también puede ser aliada en la lucha contra el fraude, siempre que esté guiada por principios éticos.

Miquelarena, por su parte, propone enfocar la regulación en los comportamientos y no en la tecnología, subrayando que la IA también puede detectar amenazas, automatizar controles y fortalecer la ciberseguridad.

Conciencia y prevención

Más allá de la tecnología y la regulación, la educación es clave. “No se trata de operar más rápido, sino de operar con mayor inteligencia”, enfatizó Gama.

Colombo recomienda desconfiar de comunicaciones no oficiales, no compartir datos sensibles y activar la autenticación de dos factores. “La tecnología avanza velozmente, pero la prevención y la educación siguen siendo nuestras principales defensas”.

Y Miquelarena concluyó: “En el mundo cripto, la mejor inversión sigue siendo el conocimiento”.