Bienvenido al blog de Undercode   Click to listen highlighted text! Bienvenido al blog de Undercode
Inicio Noticias OpenAI detecta uso malicioso de ChatGPT por hackers rusos y chinos

OpenAI detecta uso malicioso de ChatGPT por hackers rusos y chinos

por Dragora

OpenAI ha desmantelado una serie de cuentas de ChatGPT operadas por actores de amenazas vinculados a gobiernos extranjeros, incluyendo hackers rusos y grupos de ciberespionaje chino. Estas cuentas estaban siendo utilizadas para facilitar el desarrollo de malware, automatizar campañas en redes sociales, investigar tecnologías de comunicación satelital estadounidenses y más.

Hackers rusos utilizaron ChatGPT para mejorar malware en Windows

Uno de los grupos identificados hablaba ruso y empleó los modelos de lenguaje de OpenAI para perfeccionar y depurar código malicioso, especialmente dirigido a sistemas Windows. Según el informe de inteligencia de amenazas publicado por OpenAI, estos actores mostraban un conocimiento técnico avanzado del sistema operativo Windows y adoptaban medidas orientadas a preservar su anonimato y seguridad operativa (OPSEC).

La campaña de malware, bautizada como ScopeCreep, se basaba en el lenguaje de programación Go y, aunque no se ha observado una distribución masiva en la red, revela un uso estratégico y silencioso de las herramientas de IA. Los atacantes se registraban con correos electrónicos temporales y utilizaban cada cuenta de ChatGPT solo una vez para realizar pequeñas mejoras incrementales a su código malicioso, lo que dificultaba la detección y trazabilidad.

El malware se distribuía disfrazado como una herramienta legítima para videojuegos, bajo el nombre falso de Crosshair X. Al instalar esta versión troyanizada, los dispositivos comprometidos descargaban un loader que ejecutaba otras cargas maliciosas desde un servidor remoto.

Técnicas avanzadas para evadir la detección

El código malicioso creado con la ayuda de ChatGPT empleaba múltiples tácticas para evadir los mecanismos de defensa de los sistemas. Esto incluía:

  • Escalada de privilegios mediante

    1
    ShellExecuteW

  • Exclusión de análisis de antivirus con comandos PowerShell dirigidos a Windows Defender

  • Ofuscación de cargas útiles mediante codificación Base64

  • Uso de carga lateral de DLL (DLL sideloading)

  • Implementación de proxies SOCKS5 para ocultar la IP de origen

El objetivo principal era recopilar credenciales, tokens y cookies de navegadores web y enviarlas a los atacantes, incluso mediante notificaciones automáticas a canales de Telegram controlados por los hackers.

Resultado de imagen de BOTNET

Colaboración de grupos chinos: APT5 y APT15

OpenAI también desactivó cuentas vinculadas a los grupos chinos APT5 (conocido también como Bronze Fleetwood o UNC2630) y APT15 (alias Flea o Vixen Panda). Estas organizaciones utilizaron ChatGPT para investigaciones de código abierto, ajustes de scripts, administración de sistemas Linux, desarrollo de software y configuración de infraestructuras complejas.

Las solicitudes incluían apoyo para crear paquetes de software offline, resolver problemas de configuración de firewalls y servidores DNS, así como tareas relacionadas con el desarrollo de aplicaciones Android y web.

Algunos actores emplearon ChatGPT para crear scripts de fuerza bruta contra servidores FTP, automatizar pruebas de penetración con modelos de lenguaje (LLM), e incluso controlar flotas de dispositivos Android para publicar contenido en plataformas como Facebook, Instagram, TikTok y X (anteriormente Twitter).

Campañas globales de desinformación y fraude

Además de Rusia y China, OpenAI identificó el uso malicioso de ChatGPT en otras regiones y con fines variados. Entre las campañas descubiertas destacan:

  • Red norcoreana de trabajadores de TI falsos: utilizaban ChatGPT para crear materiales engañosos y postularse a trabajos internacionales en desarrollo y ciberseguridad.

  • Sneer Review (de posible origen chino): generaba contenido geopolítico masivo en inglés, chino y urdu para redes como Facebook, Reddit y TikTok.

  • Operation High Five (Filipinas): creación automatizada de comentarios políticos cortos en inglés y taglish para redes sociales.

  • Operation VAGue Focus (China): actores se hacían pasar por periodistas y traductores, generando correos electrónicos, traducciones y preguntas técnicas sobre ataques cibernéticos.

  • Operation Helgoland Bite (Rusia): contenido en ruso relacionado con las elecciones alemanas de 2025, incluyendo críticas a EE. UU. y la OTAN, difundido en Telegram y X.

  • Operation Uncle Spam (China): generación de contenido polarizado que apoyaba ambos lados de debates políticos en EE. UU., con distribución en Bluesky y X.

  • Storm-2035 (Irán): comentarios breves en inglés y español en apoyo a causas como los derechos palestinos, la independencia escocesa y la reunificación irlandesa, haciéndose pasar por ciudadanos estadounidenses, británicos o latinoamericanos.

  • Operation Wrong Number (probablemente camboyana): mensajes de reclutamiento fraudulentos en múltiples idiomas que ofrecían salarios altos por tareas simples como dar «me gusta» en redes sociales. Estas operaciones formaban parte de estafas de tareas, donde los usuarios pagaban cuotas de inscripción a cambio de promesas de ingresos.

En fin, las revelaciones de OpenAI confirman cómo los modelos de lenguaje como ChatGPT pueden ser manipulados por actores maliciosos para potenciar ciberataques, campañas de influencia y fraudes internacionales. A pesar de los filtros implementados, los grupos de amenazas están encontrando formas creativas para eludir las restricciones y utilizar estas herramientas para fines nefastos.

El informe demuestra la necesidad urgente de fortalecer los mecanismos de control y supervisión en la inteligencia artificial generativa. También resalta la importancia de la colaboración entre proveedores de IA, expertos en ciberseguridad y gobiernos para mitigar los riesgos emergentes en este nuevo panorama digital.

Fuente: The Hacker News

You may also like

Dejar Comentario

Click to listen highlighted text!