OpenAI reveló recientemente que ha prohibido varias cuentas que utilizaron ChatGPT para desarrollar una herramienta de vigilancia basada en inteligencia artificial (IA). Se cree que esta herramienta, supuestamente originada en China, funcionaba con uno de los modelos Llama de Meta y se empleaba para recopilar y analizar información sobre protestas anti-China en Occidente, compartiendo estos datos con las autoridades chinas.
ChatGPT y su implicación en la vigilancia digital
La operación, identificada como «Peer Review», analizaba publicaciones y comentarios de plataformas como X, Facebook, YouTube, Instagram, Telegram y Reddit. Los investigadores Ben Nimmo, Albert Zhang, Matthew Richard y Nathaniel Hartley señalaron que el sistema estaba diseñado para recolectar información en tiempo real, aumentando las preocupaciones sobre el uso indebido de herramientas de IA en actividades de monitoreo y vigilancia.
Uno de los hallazgos más alarmantes reveló que los actores malintencionados usaron ChatGPT para modificar y depurar código fuente relacionado con el software «Qianyue Overseas Public Opinion AI Assistant», utilizado para el monitoreo de opinión pública.
Además, se descubrió que la herramienta se empleaba para analizar documentos en inglés, extrayendo información sobre grupos de expertos, funcionarios gubernamentales y políticos de países como Estados Unidos, Australia y Camboya. Entre los documentos analizados, se encontraban anuncios de protestas pro-derechos de los uigures, cuya autenticidad aún está en duda.
Otras actividades maliciosas detectadas por OpenAI
OpenAI también identificó y desmanteló varias redes que abusaban de ChatGPT para actividades fraudulentas y campañas de desinformación:
- Esquema de empleo engañoso: Red vinculada a Corea del Norte que creaba documentación falsa para solicitantes de empleo ficticios en el sector de TI. Se generaban currículums, perfiles en plataformas profesionales y respuestas predefinidas para evitar entrevistas en video. Parte de estas solicitudes falsas fueron publicadas en LinkedIn.
- Desinformación patrocinada: Una red de origen chino que generaba contenido en redes sociales en inglés y artículos en español con críticas hacia Estados Unidos, los cuales eran publicados en sitios de noticias de Perú, México y Ecuador. Esta actividad se superpone con la campaña conocida como Spamouflage.
- Estafas de romance: Red de cuentas que traducía y generaba contenido en japonés, chino e inglés para difundir fraudes de relaciones sentimentales e inversiones en plataformas como Facebook, X e Instagram.
- Operaciones de influencia iraní: Red de cinco cuentas que creaba contenido pro-palestino, pro-Hamas y pro-Irán, mientras promovía mensajes anti-Israel y anti-EE.UU. en sitios asociados con la Unión Internacional de Medios Virtuales (IUVM) y Storm-2035.
- Ciberataques norcoreanos: Redes vinculadas a Kimsuky y BlueNoroff que recolectaban información sobre herramientas de intrusión cibernética y criptomonedas, además de depurar código para ataques de fuerza bruta contra el Protocolo de Escritorio Remoto (RDP).
- Influencias en Ghana: Red que generaba artículos en inglés para el sitio «Empowering Ghana» y comentarios en redes sociales relacionados con las elecciones presidenciales de Ghana.
- Estafa de tareas: Red, probablemente originada en Camboya, que traducía comentarios entre urdu e inglés para atraer víctimas a esquemas fraudulentos en los que se les pedía dinero para acceder a supuestos trabajos de tareas simples, como dar «me gusta» a videos o escribir reseñas.
El creciente uso de IA en operaciones maliciosas
Estas revelaciones llegan en un momento en que actores maliciosos utilizan cada vez más la inteligencia artificial para facilitar campañas de desinformación y otras actividades cibernéticas. El mes pasado, Google Threat Intelligence Group (GTIG) informó que más de 57 grupos de amenazas con vínculos en China, Irán, Corea del Norte y Rusia emplearon la IA Gemini para mejorar diferentes fases de sus ataques, desde la investigación de eventos de actualidad hasta la generación y traducción de contenido.
OpenAI destacó que compartir conocimientos sobre estas amenazas con desarrolladores de software, plataformas de redes sociales e investigadores de código abierto es crucial para detectar y mitigar el uso malintencionado de herramientas de IA. El panorama de la ciberseguridad sigue evolucionando, y el combate contra el abuso de la inteligencia artificial es una prioridad creciente para empresas tecnológicas y organismos de seguridad.
Fuente: The Hacker News