Bienvenido al blog de Undercode   Click to listen highlighted text! Bienvenido al blog de Undercode
Inicio Noticias Meta entrena su IA con datos europeos públicos

Meta entrena su IA con datos europeos públicos

por Dragora

Meta, la compañía matriz de plataformas como Facebook, Instagram y WhatsApp, ha anunciado una medida significativa en el ámbito del desarrollo de inteligencia artificial (IA). A partir de este mes, comenzará a entrenar sus modelos de IA generativa utilizando datos públicos compartidos por usuarios adultos en la Unión Europea (UE). Esta decisión llega casi un año después de que detuviera planes similares debido a preocupaciones expresadas por los reguladores de protección de datos en Irlanda.

¿Qué tipo de datos utilizará Meta para entrenar su IA?

Meta ha especificado que empleará publicaciones públicas, comentarios y otras interacciones visibles de los usuarios en sus plataformas. Esto incluye cualquier contenido que no esté protegido por la configuración de privacidad, excluyendo de manera explícita los mensajes privados entre usuarios y los datos asociados a cuentas de menores de 18 años.

La compañía aclara que esta información se utilizará exclusivamente para mejorar la capacidad de sus modelos de inteligencia artificial generativa, lo que permitiría que dichas herramientas comprendan con mayor precisión los idiomas, culturas e historia de los usuarios europeos. Este enfoque tiene como objetivo adaptar mejor sus productos de IA a las particularidades de cada región, aumentando así la precisión y utilidad de sus servicios impulsados por IA.

Transparencia, consentimiento y exclusión voluntaria

En cumplimiento con el Reglamento General de Protección de Datos (RGPD), Meta ha comenzado a enviar notificaciones a los usuarios de la UE para informarles sobre el uso de sus datos públicos. Estas notificaciones aparecerán tanto en las aplicaciones como por correo electrónico, y detallan qué información será utilizada, cómo será procesada, y con qué propósito.

Además, se incluye un enlace directo a un formulario que permite a los usuarios oponerse a que sus datos públicos sean utilizados para entrenar los modelos de IA de Meta. La empresa ha declarado que aceptará todas las solicitudes de exclusión voluntaria, tanto las ya enviadas como las nuevas que se reciban en adelante.

Este sistema de objeción forma parte del enfoque de cumplimiento normativo que Meta ha adoptado tras una larga negociación con el Comité Europeo de Protección de Datos (EDPB). Este comité, que supervisa el cumplimiento de las leyes de privacidad en la UE, dio luz verde al lanzamiento tras considerar que la propuesta de Meta cumple con las normativas del RGPD.

Zeichen für Europa setzen - 23.10.2019 - CDU Kreisverband Nordsachsen

¿Qué busca Meta con esta nueva estrategia de IA?

Según Meta, el objetivo principal de utilizar contenido público para entrenar modelos de IA es mejorar la experiencia del usuario, particularmente en productos que integran IA generativa, como los asistentes virtuales o las herramientas de creación automática de contenido.

La compañía subraya que al incluir datos reales de usuarios europeos, sus modelos podrán generar respuestas y recomendaciones más relevantes, personalizadas y contextualmente adecuadas para esta audiencia. Esto es especialmente relevante en un entorno lingüístico y cultural tan diverso como el europeo, donde una IA entrenada solo con datos estadounidenses o genéricos podría no ofrecer resultados satisfactorios.

En palabras de un portavoz de la empresa:
«Esta formación apoyará mejor a millones de personas y empresas en Europa, al enseñar a nuestros modelos de IA generativa a comprender y reflejar mejor sus culturas, idiomas e historia».

Meta sigue el ejemplo de otras grandes tecnológicas

Meta también ha señalado que no es la única empresa que ha adoptado este tipo de prácticas. Gigantes tecnológicos como Google y OpenAI ya han utilizado datos de usuarios europeos para entrenar sus respectivos modelos de IA, como Bard o ChatGPT.

La estrategia de Meta responde a una tendencia creciente en el sector tecnológico: mejorar la capacidad de respuesta de los modelos de IA a través de grandes volúmenes de datos reales. Cuantos más datos tenga un modelo, mayor será su capacidad para identificar patrones, entender contextos complejos y ofrecer resultados más útiles.

IA y privacidad: una frontera cada vez más difusa

La decisión de Meta se produce en un momento de creciente tensión entre innovación tecnológica y protección de la privacidad. Justo esta semana, Apple publicó un informe detallando cómo utiliza técnicas de privacidad diferencial y generación de datos sintéticos para alimentar funciones basadas en IA como Genmoji, Image Playground o Memories Creation sin comprometer la privacidad del usuario.

A diferencia de Meta, Apple ha optado por una estrategia que minimiza el uso de datos personales reales, favoreciendo técnicas que garantizan el anonimato o emplean dispositivos locales para el procesamiento de datos.

Ambos enfoques representan dos visiones distintas sobre cómo avanzar en inteligencia artificial sin violar los derechos fundamentales de los usuarios. Mientras Meta apuesta por el consentimiento informado y la transparencia, Apple se inclina por la privacidad desde el diseño.

¿una IA europea con identidad propia?

El entrenamiento de modelos de IA con datos europeos plantea múltiples desafíos, pero también representa una gran oportunidad. Si se implementa con garantías legales y éticas, podría dar lugar a una inteligencia artificial más representativa, inclusiva y adaptada a los valores y necesidades de los ciudadanos europeos.

Meta ha dado un paso arriesgado pero estratégico en esta dirección, abriendo un nuevo capítulo en la relación entre IA, privacidad y regulación en la era digital. Las próximas semanas serán clave para observar la reacción de los usuarios, los reguladores y el resto de la industria tecnológica.

Fuente: The Hacker News

You may also like

Dejar Comentario

Click to listen highlighted text!