El uso no consentido de fotografías personales para entrenar algoritmos de inteligencia artificial plantea desafíos inéditos al derecho a la propia imagen y la protección de datos personales
Introducción: un vacío legal en expansión
La proliferación de sistemas de inteligencia artificial que utilizan imágenes personales como datos de entrenamiento ha creado un escenario jurídico complejo donde convergen múltiples áreas del derecho: protección de datos, propiedad intelectual, derechos de la personalidad y derecho contractual. La legislación actual, diseñada para un contexto pre-digital, se muestra insuficiente para abordar las particularidades de esta nueva realidad tecnológica.
El presente análisis examina el marco legal aplicable, identifica las lagunas normativas existentes y proporciona orientación práctica para profesionales del derecho que enfrenten casos relacionados con el uso no autorizado de imágenes en sistemas de IA.
Marco normativo aplicable
Derecho fundamental a la propia imagen
La Ley Orgánica 1/1982, de 5 de mayo, de Protección Civil del Derecho al Honor, a la Intimidad Personal y Familiar y a la Propia Imagen establece en su artículo 7.5 que constituye intromisión ilegítima «la captación, reproducción o publicación por fotografía, filme o cualquier otro procedimiento, de la imagen de una persona en lugares o momentos de su vida privada o fuera de ellos».
El artículo 7.7 de la misma norma considera intromisión ilegítima «la utilización del nombre, de la voz o de la imagen de una persona para fines publicitarios, comerciales o de naturaleza análoga». Esta disposición adquiere especial relevancia cuando las imágenes se utilizan para entrenar modelos comerciales de IA.
Reglamento General de Protección de Datos (RGPD)
El Reglamento (UE) 2016/679 considera las imágenes como datos personales cuando permiten la identificación de personas físicas. El artículo 9 clasifica los datos biométricos destinados a identificar de manera unívoca a una persona física como categoría especial de datos, sometidos a protección reforzada.
Artículo 6 RGPD – Licitud del tratamiento:
- Consentimiento del interesado (apartado a)
- Intereses legítimos del responsable (apartado f)
Artículo 21 RGPD – Derecho de oposición: El interesado tendrá derecho a oponerse en cualquier momento, por motivos relacionados con su situación particular, a que datos personales que le conciernan sean objeto de tratamiento basado en el artículo 6, apartado 1, letras e) o f).
Ley de Servicios de la Sociedad de la Información (LSSI)
La Ley 34/2002, de 11 de julio, en su artículo 22, exige consentimiento previo e informado para el envío de comunicaciones comerciales, principio extensible por analogía al uso de datos para entrenamiento de IA con fines comerciales.
Análisis jurisprudencial y doctrinario
Evolución del concepto de «uso comercial»
La jurisprudencia del Tribunal Supremo ha interpretado extensivamente el concepto de «uso comercial» del artículo 7.7 LOPDH. En la STS 1187/2010, se estableció que no es necesario un lucro directo, siendo suficiente que la utilización forme parte de una actividad económica.
Esta doctrina resulta directamente aplicable a los sistemas de IA, donde las imágenes personales se utilizan para desarrollar productos comerciales, independientemente de si existe una monetización directa inmediata.
La problemática del consentimiento informado
El consentimiento debe ser específico, informado, libre e inequívoco según el artículo 7 RGPD. Sin embargo, las cláusulas contractuales de las plataformas digitales frecuentemente:
- Utilizan lenguaje técnico incomprensible para el usuario medio
- Agrupan múltiples finalidades en una sola autorización genérica
- Modifican unilateralmente los términos sin notificación efectiva
- Condicionan el servicio a la aceptación integral de términos abusivos
Derechos de autor en imágenes generadas por IA
La normativa de propiedad intelectual presenta importantes lagunas:
Real Decreto Legislativo 1/1996 (Texto Refundido de la Ley de Propiedad Intelectual):
- Artículo 5: Solo reconoce autoría a personas físicas
- Las imágenes generadas por IA carecen de protección autónoma
- Persiste la protección de la obra original utilizada para entrenamiento
Riesgos jurídicos identificados
Para los usuarios/titulares de imágenes
- Pérdida irreversible de control: Una vez procesadas las imágenes, su eliminación completa resulta técnicamente imposible
- Uso derivado no consentido: Generación de contenido que reproduce características faciales sin autorización
- Suplantación de identidad: Creación de deepfakes con potencial uso fraudulento
- Vulneración de la intimidad: Inferencias algorítmicas sobre características personales no reveladas conscientemente
Para las empresas desarrolladoras
- Reclamaciones por derechos de imagen: Demandas individuales y colectivas por uso no autorizado
- Sanciones RGPD: Multas de hasta el 4% del volumen de negocio anual
- Responsabilidad por daños: Responsabilidad civil por perjuicios causados por contenido generado
- Nulidad contractual: Invalidación de cláusulas abusivas por falta de transparencia
Casos paradigmáticos y precedentes
Meta Platforms: el test europeo
Desde mayo de 2025, Meta comenzó a utilizar contenido público de usuarios europeos para entrenar IA, basándose en «intereses legítimos» como base jurídica. La implementación de formularios de oposición responde a la presión regulatoria del RGPD, estableciendo un precedente sobre:
- Interpretación restrictiva del consentimiento tácito
- Obligación de transparencia en el uso de datos para IA
- Efectividad del derecho de oposición como salvaguarda mínima
Adobe Stock: el problema de la cadena de licencias
El caso Adobe ilustra la complejidad de la cadena de derechos cuando se utilizan imágenes generadas por IA de terceros para entrenar nuevos modelos. Plantea cuestiones sobre:
- Transmisibilidad de licencias de contenido generado por IA
- Responsabilidad por infracción indirecta de derechos de terceros
- Diligencia debida en la verificación del origen de contenidos
Estrategias de protección jurídica
Para particulares
- Auditoría de presencia digital:
- Revisión sistemática de términos de servicio aceptados
- Ejercicio proactivo de derechos de oposición donde esté disponible
- Configuración restrictiva de privacidad en plataformas
- Estrategias contractuales:
- Negociación de cláusulas específicas en contratos profesionales
- Inclusión de limitaciones de uso en licencias de imagen
- Reserva expresa de derechos no cedidos
- Acciones legales:
- Tutela inhibitoria: Solicitud de cesación de uso no autorizado
- Indemnización de daños: Reclamación por perjuicios patrimoniales y morales
- Rectificación de datos: Ejercicio de derechos RGPD
Para empresas del sector tecnológico
- Compliance preventivo:
- Implementación de sistemas de consentimiento granular
- Desarrollo de protocolos de verificación de licencias
- Auditorías periódicas de bases de datos de entrenamiento
- Arquitectura jurídica defensiva:
- Cláusulas de limitación de responsabilidad específicas para IA
- Seguros de responsabilidad civil profesional especializados
- Protocolos de respuesta a reclamaciones por derechos de imagen
Desarrollos legislativos prospectivos
Reglamento Europeo de Inteligencia Artificial (AI Act)
El Reglamento (UE) 2024/1689 introduce obligaciones específicas para sistemas de IA de alto riesgo, incluyendo:
- Transparencia obligatoria sobre datos de entrenamiento
- Evaluación de impacto en derechos fundamentales
- Supervisión humana en sistemas automatizados de toma de decisiones
Iniciativas legislativas nacionales
Proyecto de Ley de regulación de la IA en España:
- Creación de la Agencia Española de Supervisión de la IA
- Obligaciones de etiquetado de contenido generado por IA
- Refuerzo de los derechos de oposición en tratamientos automatizados
Recomendaciones prácticas para el ejercicio profesional
Asesoramiento preventivo
- Cláusulas modelo para contratos que involucren cesión de derechos de imagen
- Protocolos de due diligence para verificación de licencias en contenido de IA
- Auditorías de cumplimiento RGPD específicas para tratamientos de IA
Estrategia procesal
- Acumulación de acciones: Combinación de reclamaciones civiles y administrativas
- Medidas cautelares: Solicitud de cesación inmediata de uso no autorizado
- Prueba técnica: Utilización de peritajes especializados en sistemas de IA
Valoración del daño
Criterios para cuantificación de daños:
- Uso comercial efectivo del contenido generado
- Alcance de la difusión del material derivado
- Daño reputacional por asociación no consentida
- Lucro cesante por pérdida de control sobre la propia imagen
Perspectiva comparada internacional
Estados Unidos: el paradigma del «fair use»
La doctrina del fair use proporciona mayor flexibilidad para usos transformativos, pero enfrenta desafíos en casos de uso comercial masivo de imágenes personales. Los tribunales federales han comenzado a establecer límites cuando el uso afecta mercados potenciales del titular original.
Reino Unido: evolución post-Brexit
La UK Data Protection Act 2018 mantiene estándares similares al RGPD, pero desarrolla interpretaciones propias sobre «intereses legítimos» en contextos de IA, tendiendo hacia mayor permisividad para la innovación tecnológica.
Conclusiones y perspectivas futuras
El uso de imágenes personales para entrenar sistemas de IA representa uno de los desafíos más complejos del derecho digital contemporáneo. La intersección entre derechos de la personalidad, protección de datos y propiedad intelectual requiere un enfoque multidisciplinario que tenga en cuenta tanto los desarrollos tecnológicos como la evolución jurisprudencial.
Tendencias identificadas:
- Endurecimiento regulatorio: Mayor exigencia de consentimiento específico y transparencia
- Evolución jurisprudencial: Interpretación extensiva de los derechos de imagen en contextos digitales
- Nuevos modelos de negocio: Desarrollo de sistemas de compensación por uso de datos personales
La práctica jurídica debe adaptarse a esta nueva realidad, desarrollando herramientas conceptuales y estrategias procesales específicas para un ámbito en constante evolución tecnológica y normativa.
Recomendación final: Los profesionales del derecho deben mantenerse actualizados sobre los desarrollos tecnológicos en IA para proporcionar asesoramiento efectivo en un área donde la innovación tecnológica precede sistemáticamente a la regulación jurídica.
Para consultas especializadas en derecho digital y protección de datos en contextos de inteligencia artificial, se recomienda la colaboración interdisciplinaria con expertos en tecnología y la formación continua en desarrollos normativos europeos y comparados.