Los abogados especialistas en protección de datos personales, Facundo Malaureille y Daniel Monastersky, formalizaron la presentación contra Meta, la empresa matriz de Facebook, WhatsApp e Instagram, por el uso de datos personales en Argentina para el entrenamiento de IA, según publicó Ciberseguridad Latam.
- Detalles sobre la actualización de la Política de Privacidad y evidencia del consentimiento de los usuarios.
- Una Evaluación de Análisis de Impacto (PIA) conforme a las guías argentinas.
- Explicaciones técnicas sobre los procesos de anonimización de datos y garantías de su irreversibilidad.
- Aclaraciones sobre cómo se previene la reidentificación de datos anonimizados.
- Información sobre el manejo de metadatos y datos sensibles en el proceso de anonimización.
- Detalles sobre las políticas de retención y destrucción de datos.
Ambos firmantes sostienen que “la ausencia de una legislación actualizada en este campo coloca a los ciudadanos en riesgo de sufrir abusos potenciales por parte de empresas multinacionales que manejan grande volúmenes de información personal”, e instaron a los diputados y senadores a tomar conciencia de la situación crítica en la que se encuentra la protección de datos personales en el país.
El texto de la presentación advierte que "la falta de acción legislativa al no tratar el proyecto de reforma de la ley 25.326 deja a los ciudadanos argentinos en una posición vulnerable, expuestos a las decisiones unilaterales de corporaciones tecnológicas de gran envergadura, como Meta".
La corporación global Meta Platforms ya venía recibiendo desde junio 11 quejas presentadas en Austria, Bélgica, Francia, Alemania, Grecia, Italia, Irlanda, Países Bajos, Noruega, Polonia y España por los cambios propuestos en la forma en que utiliza datos personales para entrenar sus modelos de inteligencia artificial sin obtener consentimiento.
Las quejas afirmaron que los recientes cambios en la política de privacidad de Meta, que entraron en vigor el 26 de junio, permitirían a la compañía utilizar años de publicaciones personales, imágenes privadas y datos de seguimiento en línea para su tecnología de inteligencia artificial.
Debido a los cambios inminentes, NYOB pidió a las autoridades de protección de datos en los 11 países que inicien una revisión urgente.
Según una declaración de NYOB, la recientemente actualizada política de privacidad de Meta cita un interés legítimo en usar los datos de los usuarios para entrenar y desarrollar sus modelos de IA generativa y otras herramientas de IA, las cuales pueden ser compartidas con terceros.
El cambio de política impacta a millones de usuarios europeos, impidiéndoles eliminar sus datos una vez que están en el sistema.
Amenazas de multas
NYOB ha presentado previamente varias quejas contra Meta y otras grandes empresas tecnológicas por presuntas violaciones del Reglamento General de Protección de Datos (GDPR) de la UE, que amenaza con multas de hasta el 4% de la facturación global total de una empresa por violaciones.
En tal sentido, el fundador de NYOB, Max Schrems, señaló en una declaración que el Tribunal de Justicia de la Unión Europea ya tomó una decisión histórica sobre este tema en 2021, la cual debería servir como punto de referencia para abordar el uso propuesto por Meta de los datos personales.
Dijo: “El Tribunal de Justicia de la Unión Europea (CJEU) ya ha dejado claro que Meta no tiene un ‘interés legítimo’ para anular el derecho de los usuarios a la protección de datos cuando se trata de publicidad... Parece que Meta una vez más está ignorando descaradamente los fallos del CJEU”.
Argumentó que es completamente irrazonable confiar a los usuarios la responsabilidad de proteger su privacidad.
La ley exige que Meta obtenga el consentimiento explícito de los usuarios en lugar de proporcionar una opción de exclusión oculta y engañosa.
Enfatizó que si Meta quiere usar los datos de los usuarios, debe pedir permiso directamente.
En su lugar, Meta ha hecho que los usuarios soliciten ser excluidos del uso de datos, lo cual “es inapropiado”.
En julio de 2023, Google ya había sido demandado por motivos similares después de actualizar su política de privacidad.
La demanda acusaba a la empresa de usar grandes cantidades de datos, incluidos materiales con derechos de autor, en su entrenamiento de IA.
Esta denuncia en Argentina se produce en un contexto internacional de creciente escrutinio sobre las prácticas de las grandes tecnológicas en materia de IA y protección de datos.
Qué pasó en Brasil
La autoridad de protección de datos brasileña (ANPD) obligó a Meta a suspender el funcionamiento de “Meta AI” en el país.
Se impuso una posible multa de 50 mil reales diarios por incumplimiento.
La Fiscalía brasileña solicitó una sanción de 1733 millones de reales contra WhatsApp por supuesta violación de privacidad.
La situación en Europa
- Meta decidió no lanzar sus modelos de IA multimodal en la Unión Europea debido a la “naturaleza impredecible del entorno normativo”.
- Los nuevos modelos Llama 3.1 de IA no están disponibles en la UE para evitar potenciales sanciones por violación del RGPD.
- Rob Sherman, directivo de Meta, expresó preocupación por el riesgo de que Europa “quede fuera” en el desarrollo de IA avanzada debido a la regulación.
Compartinos tu opinión