IA y crimen organizado: cómo ChatGPT abrió la ‘caja de pandora’ a los LLM oscuros

En Myanmar, hay toda una ciudad conocida como el 'centro de estafas'. Se trata de KK Park, una localidad dedicada completamente al crimen cibernético, en donde operan redes que engañan a personas de varias regiones del mundo prometiéndoles empleo en otros países para después secuestrarlos.

11 mins. de lectura

La inteligencia artificial (IA) ha dejado de ser una herramienta exclusiva de sectores productivos, académicos o científicos para convertirse en un componente clave dentro de las organizaciones criminales. La irrupción de ChatGPT en el 2022 fue fundamental para la irrupción de la IA en la vida cotidiana.

En México, el Cartel de Sinaloa, el Cártel Jalisco Nueva Generación (CJNG) y el Cártel del Golfo han incorporado la IA para fortalecer su estructura, ampliar sus operaciones ilícitas y diversificar sus fuentes de ingresos más allá del narcotráfico tradicional..

En Myanmar, hay toda una ciudad conocida como el “centro de estafas”. Se trata de KK Park, una localidad dedicada completamente al crimen cibernético, en donde operan redes que mediante el “scam” engañan a personas de varias regiones del mundo prometiéndoles empleo en otros países; cuando llegan, les quitan el pasaporte, los secuestran y los obligan a realizar fraudes en línea.

Se estima que más de 100,000 personas han pasado por esta ciudad en los últimos siete años, muchas de ellas -posiblemente- han logrado escapar, así lo señaló Juan Manuel Aguilar Antonio, académico de la FES Aragón, investigador del Centro de Investigaciones sobre América del Norte (CISAN) de la UNAM.

En entrevista para Forbes México, el especialista en temas de ciberseguridad hizo hincapié sobre el lanzamiento de la IA generativa (GenAI) y la etapa de la democratización de la IA con el crimen organizado, algo que ya es una realidad innegable.

“A raíz de este evento, empezamos a ver algo muy interesante que ocurre con la introducción de las tecnologías emergentes: que en su proceso de socialización y democratización caen en el terreno de la alegalidad.

Es decir, las tecnologías avanzan tan rápido que empiezan a surgir ámbitos que pueden parecer ilícitos, que tienen toda la apariencia de actos criminales, pero el gran problema es que, si revisamos los marcos legales y normativos, en ningún espacio se especifica que eso sea un crimen”, aseguro.

En su más reciente estudio Uso de inteligencia artificial por redes criminales de alto riesgo, en colaboración con el Programa Europeo PACCTO 2.0, Aguilar Antonio analiza cómo las organizaciones criminales en América Latina, Europa, Asia, y otras regiones ya están incorporando la IA en su modus operandi para sus actividades ilícitas.

Principales hallazgos

Al ser cuestionado sobre los principales hallazgos del estudio, el académico nos respondió lo siguiente:

“En el estudio que realizamos, identificamos cuatro tipos de organizaciones que utilizan la IA para cometer actos ilícitos.

El primer grupo son las organizaciones jerárquicas tradicionales, como el Cártel de Sinaloa o el Cártel del Golfo. Son estructuras jerárquicas, con control territorial y uso de violencia física, pero que ya emplean la IA para maximizar sus actividades ilícitas a nivel nacional e internacional”.

Por ejemplo, el Cártel del Golfo utilizó la IA y más de 800 cámaras de videovigilancia en Nuevo Laredo y Reynosa, Tamaulipas, para implementar un sistema de enrutamiento inteligente similar al de un C5, para optimizar rutas, evadir a las fuerzas de seguridad y facilitar el transporte de drogas.

En este grupo también se incluye al ya mencionado KK Park y al Estado Islámico, que creó el proyecto New Harvest, que generaba noticieros falsos con avatares hechos por IA para difundir propaganda en varios idiomas.

El segundo grupo son los cibercolectivos, organizaciones más pequeñas, pero igualmente peligrosas. Se dedican principalmente a fraudes, extorsión y manipulación digital. Algunos ejemplos son los montadeudas en México, que crean contenido sexual o violento con IA para extorsionar a sus víctimas; el Clan San Roque en Bolivia, que difundía videos falsos de autoridades para estafar o los Yahoo Boys en Nigeria, especializados en fraudes románticos.

El tercer grupo son las plataformas autónomas y el Crime as a Service, ligadas a los Dark LLM (modelos de lenguaje grande) y versiones modificadas de sistemas como ChatGPT o Gemini sin restricciones éticas. Estas herramientas sirven para generar imágenes explícitas, enseñar a fabricar explosivos o planear fraudes, y se venden en la dark web o Telegram.

El caso más notable es el de Shantors AJ, una plataforma clandestina de IA cuyo origen y usuarios son desconocidos, lo que plantea un vacío legal sobre la responsabilidad de su uso delictivo.

Finalmente están los Proxies geopolíticos, organizaciones impulsadas por gobiernos para operaciones de desinformación. En donde destaca el caso de Matroska Doppelganger en Rusia y Storm-1516 en Irán, que replican sitios de medios europeos como The Guardian o Der Spiegel para difundir noticias falsas que benefician intereses políticos.

Estas campañas forman parte de la guerra cognitiva, valiéndose de a IA para generar confusión y desinformación a escala global, detalló el investigador.

Modus operandi

Respecto al narcotráfico y la IA, el estudio destaca como estas redes criminales ya no dependen únicamente del tráfico de drogas, sino que integran a profesionales en distintas áreas con la finalidad de optimizar procesos, aumentar ganancias y reducir riesgos frente a las autoridades.

“Tenemos que entender que estas organizaciones ya no son como antes. Ya no solo necesitan pistoleros o ‘mulas’ para transportar y distribuir droga. Ya son organizaciones sofisticadas que requieren de especialistas en contabilidad y finanzas para el lavado de dinero, químicos para los laboratorios clandestinos y también especialistas en programación”, afirmó Aguilar Antonio.

El informe detalla que el uso de la IA se manifiesta en varias maneras:

Extorsión automatizada: mediante el uso de bots y tecnología de clonación de voz, los criminales pueden recrear secuestros virtuales y amenazar a las víctimas sin necesidad de un contacto directo.
Deepfakes y manipulación digital: la creación de audios y videos falsificados sirve como herramienta para engañar, difamar o ejercer presión sobre adversarios y autoridades.
Optimización de rutas ilícitas: los sistemas basados en IA permiten calcular y ajustar rutas para el transporte de drogas, evitando retenes y puntos de vigilancia.
Fraude digital y smishing: la IA facilita el diseño de campañas de phishing personalizadas, difundidas a través de mensajes de texto o emails con apariencia legítima.
Hackeo e inteligencia adversaria: se han reportado incidentes de intrusión en sistemas de videovigilancia en la CDMX y el robo de información del teléfono de un agente del FBI, hecho que el Departamento de Justicia de EU atribuye al Cártel de Sinaloa.

Identificación de las organizaciones criminales que utilizan la IA

Ante la pregunta sobre la dificultad para identificar a las organizaciones criminales que utilizan estas herramientas tecnológicas, el académico dijo que el proceso fue “un poco complejo”.

“Identificar a las organizaciones criminales fue sumamente complejo. Yo tenía, por ejemplo, tres meses para hacer el estudio, y había pasado casi un mes sin lograr encontrar la manera de mapear las organizaciones. Afortunadamente, en el proceso de la investigación encontré una plataforma sumamente interesante que se llama AI Incident Database”, puntualizó.

Se trata de una plataforma financiada y alimentada por el gran consorcio de proveedores de IA del cluster tecnológico de Silicon Valley, la cual registra incidentes ilícitos relacionados con IA, permitiendo mapear casos y deducir modus operandi.

“Por ejemplo, en esa plataforma no aparece el caso de KK Park, ni tampoco los montadeudas, pero a partir de la información que te brinda, puedes deducir e identificar que se trata de organizaciones que utilizan la IA para la comisión de delitos. Gracias a esa base de datos pudimos identificar una gran cantidad de grupos criminales”.

Las regulaciones contra el uso malicioso de la IA en México y en el mundo

El investigador del CISAN detalló a Forbes México que, actualmente la regulación contra el uso malicioso de IA es insuficiente. Aunque existen marcos legales como la Ley Olimpia en México o el Acta de IA en la Unión Europea (el más completo hasta el momento), todavía no contemplan delitos generados por IA, lo que ha permitido que responsables de fraudes o manipulación digital queden en libertad por vacíos jurídicos importantes, aseguró.

“En la parte del estudio pudimos entrevistar incluso a personas de la policía de París y de la Fiscalía francesa. Ellos nos comentaban que existen muchos desafíos en el ámbito de la procuración de justicia para crear un marco robusto que permita combatir la delincuencia asistida por IA (…) La experiencia de entrevistar a policías en América Latina resultó sumamente interesante, porque nos permitió revisar cómo ellos ya empiezan a identificar dinámicas en las que está más que claro que se utiliza IA para cometer delitos.

Pero, en primera instancia, no saben cómo analizar una prueba o evidencia que fue asistida o producida por IA: una imagen falsa, un deepfake, un video manipulado, un audio generado artificialmente, etcétera”.

Agrego que, el uso de chatbots y robots inteligentes en fraudes y delitos destaca la urgente necesidad de fortalecer la investigación y la procuración de justicia en América Latina. Ya que estos vacíos legales significativos dificultan la judicialización y encuadre de las carpetas de investigación para estos casos.

Porque, pese al rezago en Latinoamérica, incluso Europa y Estados Unidos enfrentan desventajas frente a la rapidez con que los delincuentes emplean la IA, que ya se encuentran varios pasos por delante del desarrollo normativo, de la ley y de las acciones que pueden implementar los gobiernos para combatir este tipo de actos delictivos.

Comparte esta nota