El uso malicioso de aplicaciones potenciadas por inteligencia artificial, como ChatGPT, ha sido objeto de una investigación conjunta realizada por Microsoft y OpenAI. Según sus hallazgos, grupos de hackers afiliados a Rusia, China, Irán y Corea del Norte están aprovechando estas herramientas para mejorar sus ciberataques.
Actividades Detectadas
Los piratas informáticos utilizan ChatGPT y modelos de lenguaje de gran tamaño como “herramientas de productividad” para generar nuevos ataques. Aunque aún no se han creado técnicas de abuso únicas potenciadas por IA, se observa un aumento en la atención hacia las utilidades de OpenAI para aplicaciones maliciosas.
OpenAI identificó cinco grupos de hackers utilizando estas herramientas para fines ilícitos, incluyendo dos con conexiones al gobierno chino, y los otros afiliados con Rusia, Corea del Norte e Irán. La compañía tomó medidas para dar de baja las cuentas identificadas.
Actividades de los Hackers
Los hackers utilizan ChatGPT para diversas actividades, incluyendo la traducción de documentos, la programación y búsqueda de errores en el código, y la generación de contenido para campañas de phishing. También se observaron actividades más específicas:
- El grupo iraní CURIUM utilizó las herramientas basadas en IA para obtener información sobre ingeniería social y cómo evadir la detección de software malicioso.
- Los hackers rusos de STRONTIUM recopilaron información sobre protocolos satelitales y tecnologías de imágenes de radar.
- Los norcoreanos de THALLIUM identificaron organizaciones y expertos en Defensa de la región Asia-Pacífico.
- Los cibercriminales chinos de los grupos CHROMIUM y SODIUM investigaron programas de ciberseguridad y tradujeron documentos técnicos.
“`