La Autoridad Nacional de Protección de Datos (ANPD) de Brasil ha prohibido temporalmente a Meta procesar los datos personales de los usuarios para entrenar sus algoritmos de inteligencia artificial (IA). La ANPD encontró «evidencias de tratamiento de datos personales basadas en hipótesis legales inadecuadas, falta de transparencia, limitación de los derechos de los titulares de los datos y riesgos para niños, niñas y adolescentes».
Motivos de la Prohibición
La decisión sigue a la actualización de Meta de sus términos, que permite el uso de contenido público de Facebook, Messenger e Instagram para el entrenamiento de IA. Un informe reciente de Human Rights Watch reveló que LAION-5B, uno de los mayores conjuntos de datos de imagen y texto para entrenar modelos de IA, contenía fotos identificables de niños brasileños, exponiéndolos a riesgos de deepfakes maliciosos y potencial explotación.
Impacto en Brasil
Brasil cuenta con aproximadamente 102 millones de usuarios activos de Meta, siendo uno de los mayores mercados de la empresa. La ANPD afirmó que la actualización de Meta viola la Ley General de Protección de Datos Personales (LGPD) y presenta «el riesgo inminente de daños graves e irreparables a los derechos fundamentales de los usuarios».
Consecuencias para Meta
Meta tiene cinco días hábiles para cumplir con la orden de la ANPD, enfrentando multas diarias de 50.000 reales (aproximadamente 8.808 dólares) si no lo hace. En respuesta, Meta declaró que su política «cumple con las leyes y regulaciones de privacidad en Brasil» y consideró el fallo como «un paso atrás para la innovación y la competencia en el desarrollo de la IA».
Reacciones Internacionales
Meta ha enfrentado desafíos similares en la Unión Europea (UE), donde ha pausado sus planes de entrenar modelos de IA utilizando datos de usuarios sin su consentimiento explícito. Nick Clegg, presidente de asuntos globales de Meta, comentó que la UE «ya no es un terreno fértil para la innovación y las empresas de clase mundial», destacando la oportunidad que presenta la «era de la IA generativa».
Medidas de Protección Adicionales
En respuesta a la creciente preocupación por el uso indebido de datos, Cloudflare ha lanzado una nueva herramienta de «un clic» para evitar que los bots de IA raspen los sitios web de sus clientes en busca de contenido para entrenar grandes modelos de lenguaje (LLM). Esta función se actualizará automáticamente para identificar y bloquear nuevos intentos de raspado de datos.
Fuente: The Hacker News