Facebook ha desarrollado una inteligencia artificial que quiere identificar imágenes deepfake para después rastrear a sus creadores. Un deepfake consiste en un video en el que la voz y la cara de una persona es cambiada por un software de inteligencia artificial, lo que provoca que el video alterado parezca autentico. Esta técnica es usada sobre todo con figuras públicas. Facebook analiza las similitudes entre una colección de distintos deepfakes para ver si tienen un origen compartido, buscando patrones únicos como pequeñas motas de ruido o pequeñas rarezas en el espectro de color de una imagen.
Al identificar las huellas dactilares menores en una imagen, la inteligencia artificial de Facebook puede discernir detalles de cómo se diseñó la red neuronal que creó la imagen, como el tamaño del modelo o cómo se entrenó. «¿Cómo podríamos, con solo mirar una foto, saber cuántas capas tiene una red neuronal profunda o con qué función de pérdida se entrenó? dice Tal Hassner, líder de ciencias aplicadas de la inteligencia artificial de Facebook.
La complejidad de la inteligencia artificial
Hassner y sus compañeros probaron la inteligencia artificial en una base de datos de 100.000 imágenes deepfake generadas por 100 modelos generativos diferentes que hacen 1000 imágenes cada uno. Algunas de esas imágenes se utilizaron para entrenar el modelo, mientras que otras se retuvieron y se presentaron al modelo como imágenes de origen desconocido.
Eso ayudó a probar la inteligencia artificial en su objetivo final. «Lo que estamos haciendo es mirar una foto y tratar de estimar cuál es el diseño del modelo generativo que la creó, incluso si nunca antes habíamos visto ese modelo», dice Hassner. Se negó a compartir qué tan precisas eran las estimaciones de la inteligencia artificial, pero asegura que «somos mucho mejores que aleatorios».
Un paso adelante para la tecnología
«Es un gran paso adelante para la toma de huellas digitales», dice Nina Schick, autora del libro Deep Fakes and the Infocalypse. Pero ella señala, al igual que Hassner y sus compañeros, que la IA solo funciona con imágenes que se han generado de forma totalmente artificial, mientras que muchos deepfakes son videos creados al pegar una cara al cuerpo de otra persona.
Schick también se pregunta como de efectiva sería la IA fuera de los entornos de laboratorio, encontrando deepfakes en la naturaleza. “El tipo de modelos de detección de rostros que vemos se basan en general en conjuntos de datos académicos y se implementan en entornos controlados”, declara Schick.
Hassner se negó a hablar sobre cómo Facebook usaría su nueva IA, pero dice que este tipo de trabajo es un juego del gato y el ratón contra las personas que crean deepfakes. «Estamos desarrollando mejores modelos de identificación, mientras que otros están desarrollando cada vez mejores modelos generativos», asegura Hassner. «No dudo que en algún momento habrá un método que nos engañará por completo». Aunque Facebook a veces genere problemas, no cabe duda de que está haciendo una gran labor a la hora de localizar deepfakes.