Los Deepfakes y su uso en la publicidad (I).

Desde hace ya varios años, los avances tecnológicos han sido abrumadores. Es un sector altamente competitivo y, además, muchos de estos avances se transforman en funcionalidades fácilmente aplicables a otros muchos ámbitos.

Un ejemplo claro de ello es la aplicación del machine learning en la resolución automatizada de cuestiones que antes, con medios humanos, hubiera requerido de un gran esfuerzo.

Por ejemplo, la empresa LawGeex realizó un evento en el que enfrentaban a varios abogados estadounidenses con el algoritmo que había desarrollado en la revisión del contenido de contratos. ¿El resultado? Un margen reducido – pero considerable – a favor del algoritmo, un escaso 9% de diferencia.[1]

Como es obvio, el sector legal no es algo ajeno a la innovación y, por tanto, el Derecho tiene que luchar por alcanzar estos avances, aunque como vemos, el legislador europeo y nacional tiene muchos problemas para mantener el ritmo.

Pero, vamos a afinar un poco más el tiro centrando la mirada en una de estas funcionalidades que recibe el nombre de “Deepfakes”, más concretamente, su uso en el ámbito publicitario.

 

 

  1. ¿QUÉ SON LOS DEEPFAKES?

Para acuñar o delimitar un concepto jurídico aproximado de “Deepfake” podríamos acudir al Draft Issues paper on Intellectual Property policy and Artificial Intelligence,, publicado por la Organización Mundial de la Propiedad Intelectual en 2019 – y revisado en 2020 –  para tener una pequeña aproximación.

En este Draft a pesar de hacer una aproximación al concepto de “Deepfake” desde la perspectiva de la propiedad intelectual, podemos extraer unas nociones generales:

“La tecnología relacionada con los ultrafalsos (Deepfakes), o la generación de versiones parecidas de personas y sus atributos, tales como la voz y la apariencia, existe y se está empleando. […]”

Los “Deepfakes” parten de la utilización de Inteligencia Artificial (en adelante IA), concretamente de las redes generativas antagónicas o GANs, para generar imágenes o vídeos con un alto grado de detalle y realismo. El funcionamiento de estas redes es muy interesante, a la par que excesivamente técnico, y a un servidor se le escapa totalmente de su ámbito por lo que, prefiero ser precavido y quedarme en la esfera jurídica antes de entrar a valorar el how-it-works de las GANs.

En resumidas cuentas el problema principal radica en el uso que se da de esta tecnología, no en la tecnología en sí. La creación de producciones visuales que se asemejen a una persona aun con los rasgos de otra totalmente diferente puede ser tremendamente atractivo, ya sea para fines positivos como negativos.

No es difícil advertir algunos de los riesgos potenciales que este medio puede ocasionar, y que encuentra un claro reflejo en la atribución de actos o palabras a personas determinadas sin que estas se hayan producido realmente – ni que decir tiene el potencial político que tienen estos montajes, entre otros ejemplos que se encuadran en el espectro más negativo de esta funcionalidad.

Dicho esto, no cabe sino advertir los distintos vértices que toca la creación y utilización de los “Deepfakes”:

  • La posible protección de las obras generadas desde la perspectiva de la propiedad intelectual – ¿son protegibles las obras generadas mediante apps o entornos web cuya lógica permita generar “Deepfakes”?
  • La perspectiva de la protección de datos, concretamente el conflicto que puede generarse respecto del derecho de supresión y, a su vez, el derecho al olvido en las redes sociales.
  • Y la utilización de la imagen de personas fallecidas para fines comerciales o publicitarios y el choque que ello supone con el derecho a la propia imagen (art. 18 de nuestra Constitución).

 

  1. LOS “DEEPFAKES” EN LA PUBLICIDAD.

Como ya hemos comentado, uno de los extremos más interesantes, en lo que respecta a las funcionalidades del machine learning aplicado al ámbito publicitario, es la posibilidad de generar una simulación lo suficientemente realista a partir de una recopilación de imágenes, fragmentos de vídeo y fonemas de una persona determinada sobre otra totalmente distinta de esta.

Uno de los ejemplos más claros de “Deepfake” en el entorno publicitario es el spot protagonizado por Lola Flores[2] para la conocida marca de cerveza, Cruzcampo. La difusión de este anuncio tuvo notorio calado, tanto a nivel social y cultura, como jurídico.

Abierta la veda, el siguiente paso era preguntarse ¿Qué ocurre ahora con el derecho a la propia imagen de las personas que han fallecido? ¿Se puede utilizar de forma indiscriminada esta tecnología para “resucitar” digitalmente a cualquier persona?

Las respuestas las encontramos en la Ley Orgánica 1/1982, de 5 de mayo, de Protección Civil del Derecho al honor, a la intimidad personal y familiar y a la propia imagen (en adelante LO 1/82). Este cuerpo normativo realiza una estupenda labor de cobertura legal, permitiendo limitar los actos que pudieran suponer una intromisión ilegítima respecto de la protección de la propia imagen.

Así, la LO 1/82, a pesar de su longevidad se adapta sin mayor problema a supuestos como este. Uno de los principales puntos de fricción en lo que respecta a la generación de estas simulaciones radica en la EXIGENCIA de contar con el CONSENTIMIENTO EXPRESO del titular del derecho (artículo segundo, apartado dos de la citada Ley Orgánica).

Pero ¿qué ocurre en aquellos casos en los que el titular de este derecho hubiera fallecido? En su artículo cuarto, la Ley Orgánica delimita los sujetos legitimados para recabar la protección del derecho de aquel. De este modo;

  1. Corresponderá a aquella persona que el fallecido hubiera designado la protección de este derecho. Esta designación puede recaer sobre una persona jurídica. (Artículo cuarto, punto uno)
  2. De no existir designación alguna, estarán legitimados para la protección de los derechos de la persona fallecida, el cónyuge, los descendientes, ascendientes y hermanos de la persona afectada que vivieran al tiempo de su fallecimiento. (Artículo cuarto, punto dos)
  3. En último lugar, de no darse ninguna de las circunstancias anteriores, será el Ministerio Fiscal quien, de oficio o a instancia de persona interesada, ejerza la protección de los derechos del afectado.

La capacidad de los legitimados para interesar la protección del derecho a la propia imagen también contempla un plazo temporal. De este modo, las acciones de defensa deberán contemplarse siempre que NO HUBIESE TRANSCURRIDO MÁS de OCHENTA AÑOS desde el fallecimiento del afectado.

Conocemos, por tanto, la necesidad de contar con el consentimiento expreso, bien del afectado, bien de los legitimados para la protección de los derechos de la persona afectada. Por consiguiente, el siguiente punto de tensión que habrá de tratarse radica en conocer de aquellas conductas que pudieran ser consideradas como ilegítimas o intromisivas para con respecto al derecho a la propia imagen.

Dado que estamos abordando un tema concreto como es la generación de simulaciones realistas (Deepfakes), nos centraremos en el artículo séptimo, punto sexto que viene a decir lo siguiente:

“Tendrán la consideración de intromisiones ilegítimas en el ámbito de protección delimitado por el artículo segundo de esta Ley:

[…] 6. La utilización del nombre, de la voz o de la imagen de una persona para fines publicitarios, comerciales o de naturaleza análoga”

No obstante, esta cobertura que ofrece la Ley Orgánica también se ve modulada por el artículo octavo; precepto que limita la condición de intromisión ilegítima, autorizando aquellas actuaciones que hubiera sido autorizadas o acordadas por la Autoridad competente de acuerdo con la Ley, así como en aquellos casos en los que predomine un interés histórico, científico o cultural relevante.

A estas limitaciones habrá que sumar, entre otras;

  • La captación, reproducción o publicación por cualquier medio cuando se trate de personas que ejerzan un cargo pública o profesión de notoriedad.
  • Las proyecciones públicas y la imagen que se hubiese captado en actos públicos o lugares abiertos al público.
  • La utilización de caricaturas de las personas afectadas.

  1. CONCLUSIONES

Para finalizar este post/artículo, concluyo con tres breves notas a modo de conclusión que me permitan dar un cierre adecuado a todo lo desarrollado. Así:

PRIMERO. El uso de la tecnología y de sus avances permite sobrepasar límites llegando incluso a ser imposible distinguir elementos simulados de manifestaciones reales.

SEGUNDO. El uso del machine learning, y por ende, la generación de Deepfakes, no han de ser considerados como creaciones problemáticas sino herramientas para alcanzar resultados y objetivos en campos del conocimiento tan dispares como la ingeniería o la esfera jurídica. Debemos buscar el equilibrio entre la regulación de este tipo de medios y la prevención en lo que respecta la utilización ilegítima o ilícita de los mismos.

TERCERO. La regulación que ofrece la Ley Orgánica 1/82 permite dar respuesta a las preguntas esenciales que giran en torno a los Deepfakes, procurando un equilibrio entre la protección a la propia imagen y la utilización de la misma para fines tan dispares como los comerciales y publicitarios.

 


[1] “Machine Learning en Derecho: Cuando las máquinas van a la Escuela de Leyes” escrito por Ast. F, publicado en Medium, el 21 de noviembre de 2020. (Recuperado de https://medium.com/astec/machine-learning-en-el-derecho-cuando-las-m%C3%A1quinas-van-a-la-escuela-de-leyes-549f4071110)

[2] El spot publicitario tuvo un impacto notable en tanto, por un lado, para los consumidores y espectadores el uso de esta técnica era totalmente novedoso y, por otro lado, unido a lo anterior, Lola Flores, la protagonista del corto publicado, falleció el 16 de mayo de 1995. Estos dos factores fueron clave para que impacto en el espectador promedio tuviese el alcance deseado.

Share this content: