En los últimos tiempos se está hablando mucho de las imágenes, especialmente por la cantidad de fotografías fake que aparecen en cualquier situación, como se ha podido ver, por ejemplo, en el grave accidente ferroviario de Córdoba, y por la manipulación de fotos, especialmente de menores de edad, para dotarles de un contenido sexual, como hacía Grok, la inteligencia artificial (IA) de X.
Lo que hay que tener claro es que ya sean reales o modificadas con sistemas de inteligencia artificial, las imágenes, y más las de carácter personal, están protegidas en España, donde ya existe un amplio armazón legislativo para defender el honor, la intimidad y la propia imagen y los ciudadanos disponen de numerosas vías, jurídicas y administrativas, para reclamar esos derechos y perseguir a quienes los vulneran. Porque aunque la manipulación de fotos con IA es algo reciente, ya se hacía algo parecido muchos años atrás con Photoshop o herramientas similares.
Constitución y anteproyecto de ley
Ese andamiaje se sustenta además en la Constitución Española, que en su artículo 18 garantiza el derecho al honor, a la intimidad personal y familiar y a la propia imagen y establece que la ley debe limitar el uso de la informática para garantizar esos derechos, cada vez más amenazados por la proliferación de tecnologías de edición y de inteligencia artificial que han multiplicado la difusión de imágenes, y entre ellas las de personas desnudas, sexualizadas y absolutamente descontextualizadas.
A la Constitución se suman las vías civiles, las penales y las administrativas, porque si esa publicación implica un tratamiento de datos personales puede intervenir la Agencia Española de Protección de Datos (AEPD) e imponer sanciones, como ya ha hecho recientemente por generar y difundir imágenes sexuales de menores creadas con sistemas de IA.
Además, para complementar ese entramado legislativo existente, el Gobierno ha aprobado el anteproyecto de ley del derecho al honor y a la intimidad personal, que considera ilegítimo el uso y difusión de imágenes o voces manipuladas sin consentimiento a través de la inteligencia artificial (las ultrafalsas o deepfakes), un texto que sustituirá a la ley vigente desde 1982 para adaptar esa realidad al siglo XXI y ampliar la protección de esos derechos.
Vía civil
Mientras se tramita el anteproyecto, un procedimiento que se puede prolongar durante meses y que dependerá finalmente de los apoyos parlamentarios del Gobierno, cualquier persona que sienta vulnerados esos derechos por la publicación de imágenes, ya sean manipuladas o no, puede recurrir a la vía civil para solicitar la retirada inmediata del contenido, exigir una indemnización por daños y perjuicios y pedir medidas cautelares para evitar la difusión adicional.
Vía penal y administrativa
También puede acudir a la vía penal, ya que el Código Penal castiga con penas que pueden ser de cárcel captar, reproducir, grabar o publicar imágenes o comunicaciones sin consentimiento, con agravantes si la víctima es menor de edad o una persona especialmente vulnerable. Y puede finalmente, por la vía administrativa, acudir a la Agencia Española de Protección de Datos (AEPD) para presentar una queja o denuncia, además de recurrir al Canal Prioritario que este organismo puso en marcha hace siete años para solicitar la retirada urgente de contenidos sexuales o violentos que se publican en internet sin consentimiento de las personas que aparecen en ellos y evitar que esas imágenes se hagan virales.
La AEPD asegura a Efe que una persona puede dirigirse a este organismo a través de los canales habilitados para solicitar la retirada de los contenidos, sin perjuicio de que, cuando existan indicios de delito, los hechos se trasladen a la Fiscalía u otras autoridades competentes. El número de personas que ha acudido a ese canal ha aumentado progresivamente durante los últimos años y durante los últimos seis meses se han registrado una docena de reclamaciones que aluden específicamente al uso de la IA para manipular contenidos que pueden resultar lesivos.
El uso de este canal está pensado para situaciones graves, cuando el contenido tenga un impacto especialmente intenso en sus derechos, "pero no para cualquier conflicto ordinario relacionado con contenidos en internet", y dentro del ámbito propio de la protección de datos, la Agencia presta especial atención a los supuestos en los que el uso de imágenes o vídeos de terceros mediante sistemas de inteligencia artificial incrementa de forma significativa los riesgos para la persona afectada.
Amplia jurisprudencia
La jurisprudencia española es ya muy amplia y durante los últimos años se han sucedido numerosos fallos que condenan las vulneraciones y establecen límites frente a la difusión de contenidos en internet que afectan gravemente a la reputación y vida privada de las personas, y entre las últimas está la sanción que la AEPD impuso por la difusión de imágenes de chicas desnudas generadas con IA en Almendralejo (Badajoz) y que sumó a las medidas ya impuestas por el Juzgado de Menores de Badajoz.
Coincidiendo con la aprobación en el Consejo de Ministros del anteproyecto de ley que prepara el Gobierno, la AEPD ha publicado un informe (El uso de imágenes de terceros en sistemas de inteligencia artificial y sus riesgos visibles e invisibles) en el que radiografía los riesgos que entraña la publicación de imágenes, tanto si son reales como si son manipuladas con sistemas de inteligencia artificial.
Este organismo alerta de que la imagen en la que una persona es identificable constituye un dato personal y está por lo tanto protegida y regulada por el Reglamento General de Protección de Datos, pero también de que se pueden ver afectados derechos fundamentales (honor, intimidad o propia imagen) y entonces la investigación y la persecución de los presuntos delitos corresponde a las autoridades policiales, a la Fiscalía y a los órganos judiciales.