La inteligencia artificial se ha convertido en una herramienta para los grupos delictivos en la ejecución de estafas. En América Latina, como en otras partes del mundo, las organizaciones criminales están expandiendo su influencia gracias esta tecnología que son cada vez más accesibles y no demandan una formación ni grandes inversiones.
Los fraudes han alcanzado un nivel de sofisticación sin precedentes, y según Interpol, esto se logra “sin necesidad de habilidades técnicas avanzadas y con un costo relativamente bajo”.
Cómo funcionan la estafas hechas con IA
El uso de herramientas de inteligencia artificial está permitiendo a los delincuentes aprovechar grandes cantidades de datos en redes sociales para llevar a cabo estafas cada vez más elaboradas. Estas tecnologías permiten extraer rápidamente información personal de plataformas como X (antes Twitter), lo que facilita la creación de mensajes automáticos y altamente personalizadas para manipular a las víctimas.
Por ejemplo, los estafadores pueden acceder a los seguidores de una cuenta de fútbol y, a partir de esa información, enviar mensajes diseñados para generar confianza y obtener más datos.
En este contexto, fraudes tradicionales como el phishing, correos electrónicos con software malicioso, las estafas románticas o los concursos falsos han alcanzado un mayor grado de sofisticación.
Las herramientas de IA no solo permiten crear imágenes realistas y redactar en varios idiomas, sino que también facilitan el envío masivo de correos fraudulentos mediante programas que incluso son gratuitos.
Según una evaluación reciente de Interpol, grupos criminales poderosos en América Latina, como el Cártel Jalisco Nueva Generación (CJNG) de México, el Primer Comando Capital (PCC) de Brasil y el Comando Rojo (CV) también de Brasil, están involucrados en este tipo de estafas.
La red de investigación InSight Crime señala que estos grupos han adoptado técnicas avanzadas de ciberfraude como parte de sus operaciones delictivas.
Por otro lado, la inteligencia artificial también se utiliza para generar imágenes y videos falsos con un nivel de hiperrealismo que resulta difícil de distinguir de los contenidos reales. Estas creaciones, conocidas como deepfakes, son aprovechadas por ciberdelincuentes para extorsionar, cometer fraudes o manipular a sus víctimas.
La IA facilita la creación de mensajes fraudulentos que incluyen fotos de personas familiares en situaciones que nunca ocurrieron, lo que refuerza la veracidad percibida del engaño.
Además, con solo escuchar la voz de una persona durante 5 o 10 segundos, es posible clonar su tono y patrones de habla, lo que permite a los delincuentes simular conversaciones telefónicas y generar grabaciones que pueden ser utilizadas para manipular a terceros o llevar a cabo estafas más elaboradas.
“Este es un ataque más sofisticados, no tan automático, pero que suele ser muy efectivo. Ya no hace falta secuestrar a alguien para pedir su rescate. Una llamada a un familiar puede liberar los fondos directamente”, señaló Etay Maor, estratega jefe de seguridad de Cato Networks y miembro fundador de Cato CTRL al medio inglés BBC.
En la frontera entre México y Estados Unidos, se ha identificado que grupos criminales están estafando a familias de migrantes desaparecidos mediante el uso de imágenes falsas.
Una investigación de InSight Crime detalla que estos grupos crean sitios web haciéndose pasar por organizaciones dedicadas a la búsqueda de personas desaparecidas. A través de estos portales, piden a las familias que envíen fotos de sus seres queridos con el pretexto de ayudar en la identificación.
Posteriormente, los delincuentes utilizan esas imágenes para generar fotos o videos falsos que parecen auténticos, alegando que la persona fue secuestrada y exigiendo un rescate para su liberación.
Cómo protegerse de las estafas con IA
Como usuarios finales, la única forma realmente efectiva de protegerse contra estafas sofisticadas creadas con inteligencia artificial es educarse sobre esta tecnología.
Al entender cómo funciona la IA, los usuarios serán capaces de identificar patrones sospechosos, como imágenes falsas o mensajes personalizados diseñados para manipularnos. La educación tecnológica otorga herramientas para detectar fraudes y así evitar caer en las trampas cada vez más elaboradas que utilizan estas técnicas.