Meta pone en pausa el entrenamiento IA con datos de usuarios europeos por las preocupaciones sobre la privacidad

Meta ha anunciado que suspenderá temporalmente sus esfuerzos para entrenar los modelos de lenguaje grande (LLMs) de la compañía utilizando contenido público compartido por usuarios adultos en Facebook e Instagram dentro de la Unión Europea. Esta decisión sigue a una solicitud de la Comisión de Protección de Datos de Irlanda (DPC).

Meta ha expresado su decepción ante la necesidad de pausar sus planes de inteligencia artificial, subrayando que ha considerado los comentarios de los reguladores y las autoridades de protección de datos en la región.

El problema central radica en el plan de Meta de utilizar datos personales para entrenar sus modelos de inteligencia artificial sin obtener el consentimiento explícito de los usuarios, basándose en el fundamento legal de «Intereses Legítimos» para procesar datos de primera y tercera parte en la región.

Estos cambios estaban programados para entrar en vigor el 26 de junio. Meta había indicado que los usuarios podrían optar por no permitir que sus datos fueran utilizados, presentando una solicitud «si así lo desean». Meta ya emplea contenido generado por los usuarios para entrenar su IA en otros mercados, como Estados Unidos.

«Esto es un retroceso para la innovación europea, la competencia en el desarrollo de IA y retrasa aún más la llegada de los beneficios de la IA a las personas en Europa,» declaró Stefano Fratta, director global de políticas de privacidad de Meta. «Seguimos confiando firmemente en que nuestro enfoque cumple con las leyes y regulaciones europeas. El entrenamiento de IA no es exclusivo de nuestros servicios y somos más transparentes que muchos de nuestros competidores en la industria.»

Meta también destacó que no puede ofrecer Meta AI en Europa sin poder entrenar sus modelos de IA con información recopilada localmente, la cual es vital para capturar la diversidad de idiomas, geografía y referencias culturales. Hacerlo de otra manera resultaría en una «experiencia de segunda categoría».

Además de trabajar con la DPC para traer la herramienta de IA a Europa, Meta señaló que el retraso también permitirá abordar las solicitudes recibidas del regulador del Reino Unido, la Oficina del Comisionado de Información (ICO), antes de comenzar el entrenamiento.

«Para aprovechar al máximo la IA generativa y las oportunidades que brinda, es crucial que el público pueda confiar en que se respetarán sus derechos de privacidad desde el principio,» mencionó Stephen Almond, director ejecutivo de riesgo regulatorio en el ICO. «Continuaremos monitorizaremos a los principales desarrolladores de IA generativa, incluida Meta, para revisar las salvaguardas que han implementado y asegurar que se protejan los derechos de información de los usuarios del Reino Unido.»

Este desarrollo se produce mientras la organización no lucrativa austríaca noyb (none of your business) presentó una queja en 11 países europeos, alegando violación del Reglamento General de Protección de Datos (GDPR) en la región por recolectar datos de usuarios para desarrollar tecnologías de IA no especificadas y compartirlos con terceros.

«Meta básicamente está diciendo que puede usar ‘cualquier dato de cualquier fuente para cualquier propósito y ponerlo a disposición de cualquiera en el mundo’, siempre que se haga a través de ‘tecnología de IA’,» afirmó Max Schrems, fundador de noyb. «Esto es claramente lo opuesto a cumplir con el GDPR.»

Noyb también criticó a Meta por hacer afirmaciones engañosas y presentar el retraso como un «castigo colectivo», señalando que la ley de privacidad GDPR permite procesar datos personales siempre que los usuarios den su consentimiento informado.

«Meta podría implementar tecnología de IA en Europa si se molestara en pedir a las personas que acepten,» concluyó la organización.

Scroll al inicio