- Desde el bufete especializado en Derecho Digital, Pintos & Salgado, analizan este fenómeno de edición con inteligencia artificial de imágenes, vídeos o audios, y que ya presenta usos con fines vejatorios.
- Carla Cendán, abogada de Pintos & Salgado: "Hay un claro sesgo de género en su utilización, y de hecho a nivel mundial aproximadamente un 90 % de los deepfakes se realizan con la imagen de mujeres, con especial riesgo para niñas y adolescentes menores".
La inteligencia artificial (IA) no solo ha transformado la forma de producir contenidos de manera rápida y accesible, sino que también ha introducido nuevas herramientas de alteración de fotografías, vídeos o audios cada vez más profesionales.
Y los deepfakes responden a esa conceptualización: utilizando imágenes de personas reales o inexistentes, la IA es capaz de generar contenidos nuevos, considerablemente realistas, que luego se comparten con objetivos dispares, desde el uso humorístico o reivindicativo a la producción de pornografía o discursos de odio.
A este fenómeno de los deepfakes se acercan desde Pintos & Salgado, el despacho de abogados especializado en Derecho Digital de A Coruña. Carla Cendán, abogada especialista del bufete, lo considera como "una nueva forma de violencia digital contra las mujeres; cerca del 90 % de los deepfakes a nivel mundial se utilizan con ellas, y ese sesgo de género no es casual", expone. Detrás de este dato, laten, en esencia, cuestiones relacionadas con la cosificación del cuerpo femenino y la deshumanización de sus identidades.
"Pensamos que los deepfakes se generan solo contra famosos, pero en realidad la accesibilidad de las inteligencias artificiales implica que cualquier persona anónima pueda protagonizar una alteración de este tipo", continúa Carla Cendán. Para la abogada, esta nueva tipología de violencia digital tiene un carácter complejo, "porque no está tipificado como delito en nuestro código penal, pero afecta a un enorme abanico de derechos de los ciudadanos: puede vulnerar el derecho a la propia imagen, al honor, a la intimidad, podría constituir un delito de odio o injuria...".

Las niñas y adolescentes menores de edad son, para Carla Cendán, el principal grupo más vulnerable ante las consecuencias de los deepfakes. De hecho, la pornografía de venganza es uno de los usos que destacan desde Pintos & Salgado como cada vez más usual: una pareja comúnmente heterosexual que termina su relación y uno de sus miembros, normalmente el hombre, decide denigrar a la otra parte creando y distribuyendo un vídeo con IA de carácter sexual donde se utilice el rostro de la mujer en un cuerpo irreal, realizando una acción que nunca se produjo.
"Las consecuencias de un deepfake tienen un impacto psicológico enorme", reitera la experta en Derecho Digital. "Se hace público un falso vídeo de la mujer teniendo relaciones sexuales, se filtra al círculo cercano y profesional, se denigra a esa persona
y aunque luego se demuestre que no es real, el daño está hecho, tanto psicológico como al derecho a la propia imagen y honor. La capacidad de respuesta es ínfima para el daño que causa".
¿Qué puede hacer alguien afectado por un deepfake?
Dentro de las opciones disponibles a nivel legal, si una persona ve que su imagen está siendo ultrajada con algún contenido modificado con IA y compartido públicamente, tiene a su disposición diferentes vías para actuar.
"Lo primero que deberíamos hacer si nos afecta un deepfake es acudir a la Policía para interponer una denuncia. Una vez hecho, se abren vías de investigación en base a las pruebas que se aporten", expone Carla Cendán. Con todo, desde Pintos & Salgado también proponen otras fórmulas, como el canal prioritario de la Agencia Española de Protección de Datos (AEPD).
Se trata de un servicio destinado específicamente a la publicación en Internet de fotografías, vídeos o audios de contenido sexual o violento que pongan en riesgo los derechos o la salud física o mental de la ciudadanía, de tal manera que se agilice la retirada del contenido vejatorio.
"También las plataformas de redes sociales o buscadores deben contar con mecanismos de verificación y control para recibir denuncias y eliminar contenido dañino", recuerda la abogada especialista, "pero todavía les falta mucho más compromiso ético a la hora de moderar este tipo de problemáticas".
"Además, necesitamos, junto con una mayor concienciación ciudadana, una legislación más específica y actualizada para estas innovaciones tecnológicas. Con el fácil acceso a la IA, con software libres y modelos gratuitos, las posibilidades de hacer daño aumentan, y también la sensación de desprotección, violencia y pérdida de control por parte de las víctimas, de muchas mujeres", concluye Carla Cendán.