¡Los deepfakes se han convertido en uno de los desafíos más apremiantes de nuestra era digital!. Estas sofisticadas falsificaciones digitales, que combinan «deep learning» (aprendizaje profundo) y «fake» (falso), tienen la capacidad de crear imágenes, videos y audios tan increíblemente realistas que pueden engañar a millones de personas y hasta a los algoritmos. Lo que es aún más alarmante es que su creación es cada vez más sencilla gracias a aplicaciones de fácil manejo, e incluso han surgido como un «Deepfake as a Service», donde los precios oscilan entre los 10 dólares por imágenes y los 500 dólares por minutos de video.

Cómo los deepfakes pueden afectar la reputación

Los deepfakes son una herramienta potente para campañas de desinformación y pueden causar un daño reputacional significativo. Un ejemplo impactante de esto es el caso del deepfake racista en un colegio de Estados Unidos. Un clip de audio falso, creado con inteligencia artificial, mostraba al director de la escuela haciendo comentarios racistas y antisemitas. Este clip se volvió viral, lo que provocó amenazas de muerte contra el director y una profunda división en la comunidad. Aunque se descubrió que el audio era falso y había sido manipulado con IA, el director finalmente cambió de trabajo debido al daño reputacional sufrido.

En el ámbito corporativo, el daño reputacional puede ser tan grave como las pérdidas financieras directas. La imagen de una empresa puede verse perjudicada por medios manipulados, y aunque el fraude sea desmentido, el daño inicial ya está hecho. Esto es especialmente crítico para industrias basadas en la confianza, como las finanzas, el derecho y la salud.

Posibles riesgos y consecuencias de ser víctima de un deepfake

Ser víctima de un deepfake conlleva múltiples riesgos y consecuencias, que van desde el fraude financiero hasta el daño moral y la desestabilización social:

  • Fraude financiero y suplantación de identidad: Este es uno de los impactos más significativos.
    • Fraude del CEO: Impostores se hacen pasar por ejecutivos o figuras de autoridad en llamadas o videollamadas para solicitar información confidencial o autorizar transacciones financieras. Un caso notable es el intento de estafa a WPP, una de las mayores empresas de publicidad. Los estafadores crearon una cuenta de WhatsApp con la imagen del CEO y organizaron una videoconferencia, utilizando clonación de voz y videos de YouTube para simular la presencia del CEO y otro ejecutivo. Afortunadamente, fue detectado a tiempo gracias a la concienciación de los empleados y medidas de prevención.
    • Estafa a Arup: Un empleado de una empresa de ingeniería británica transfirió 25 millones de dólares a estafadores tras ser engañado en una videollamada con supuestos directivos y compañeros, todos ellos recreaciones «deepfake».
    • Estafas de criptomonedas: En 2024, se reportaron múltiples casos de estafas utilizando deepfakes de Elon Musk, quienes prometían regalar criptomonedas a cambio de transferencias, resultando en pérdidas estimadas de 80 millones de dólares en EE. UU..
    • Estafas del amor: Desde 2022, se han documentado estafas donde los criminales utilizan «faceswap» en tiempo real a través de llamadas de video en plataformas de mensajería para engañar a las víctimas y obtener dinero o datos personales, resultando en el robo de más de 652 millones de dólares en 2023.
    • Otros tipos de fraude incluyen la creación de identidades sintéticas para abrir cuentas fraudulentas, el uso de credenciales robadas para obtener préstamos y tarjetas, fraudes que explotan identidades de personas fallecidas y falsificaciones de familiares para cobrar prestaciones existentes.
    • Los deepfakes pueden incluso superar sistemas biométricos como el reconocimiento facial y de voz, comprometiendo los procesos de verificación de identidad y registro de clientes.
  • Desinformación y manipulación política: Los deepfakes son una táctica poderosa para difundir información falsa, manipular la percepción pública e influir en los resultados políticos.
    • Un ejemplo es la llamada automática generada por IA que imitaba a Joe Biden para desmotivar a los votantes en las primarias de New Hampshire en 2024, lo que resultó en una condena de 6 millones de dólares para el autor.
    • Un deepfake de Vladimir Putin se creó en 2020 para concienciar sobre la desinformación electoral.
    • El uso de deepfakes contribuye a la «apatía de la realidad» o «apocalipsis de la información», donde la gente ya no sabe qué fuentes de información son fiables, socavando la confianza en los medios y la democracia.
  • Daño moral y psicológico: Más allá de lo financiero, el daño moral es el más significativo.
    • Manipulación no consentida, acoso y chantaje son usos malintencionados comunes.
    • Un caso sonado fueron las imágenes sexualizadas de Taylor Swift generadas con IA que se viralizaron en Twitter, causando un grave daño moral.
    • La IA también se ha utilizado para crear material de abuso sexual infantil.
    • A menudo, los deepfakes pueden generar una «sensación inquietante» o un «valle inquietante» (uncanny valley), donde la imperfección sutil de la falsificación delata su falta de autenticidad y causa desconfianza.

Estrategias para defenderse y controlarlos

La lucha contra los deepfakes es un desafío continuo, ya que la calidad de estas falsificaciones mejora constantemente. Se necesita una combinación de concienciación, tecnología y regulación.

1. Detección Humana y Señales de Alerta: Entrenar el ojo humano para detectar inconsistencias es crucial, aunque no suficiente. Algunas señales clave de manipulación incluyen:

  • Patrones de parpadeo irregulares: Los humanos parpadean de 15 a 20 veces por minuto. Los deepfakes pueden no parpadear, hacerlo excesivamente o de forma robótica.
  • Movimientos faciales y de labios poco naturales: Los labios pueden moverse de forma extraña, el color de los labios puede ser inconsistente con el rostro, o la sonrisa puede parecer «pegada» sin afectar los músculos alrededor de los ojos.
  • Inconsistencias en la piel: Demasiado lisa, muy arrugada, o una edad que no coincide con el cabello. También puede haber vello facial o lunares poco naturales.
  • Problemas de reflejo y sombras: Reflejos incorrectos en los ojos o gafas, sombras mal alineadas o ausentes que no concuerdan con la fuente de luz en la escena.
  • Movimientos corporales incoherentes: La respiración puede ser exagerada o ausente, y los gestos con las manos pueden parecer robóticos o repetitivos.

2. Herramientas y Técnicas de Detección Tecnológica: La tecnología de IA que crea deepfakes también se usa para detectarlos.

  • Análisis de Nivel de Error (ELA): Imagina que una foto es un dibujo; si se borra y redibuja una parte, esa zona quedará diferente. ELA resalta esas diferencias al analizar cómo una foto se «arruga» al comprimirse, mostrando las zonas con mayor nivel de error con mayor brillo.
  • Análisis de Metadatos: Examina los «datos adjuntos» de una foto o video (fecha, hora, modelo de cámara, ubicación, programas de edición) en busca de inconsistencias o su ausencia.
  • Análisis de Biología Humana: Busca fallos en la imitación de gestos, movimientos y características físicas humanas que la IA aún no replica a la perfección.
  • Análisis de Luces y Sombras: Verifica que la luz y las sombras en la imagen sean coherentes con una fuente de luz natural. Las inconsistencias pueden revelar manipulación.
  • Herramientas de software específicas:
    • Basadas en IA: Sentinel, Sensity, Oz Liveness, WeVerify, HyperVerge, FakeCatcher (Intel), Microsoft Video AI Authenticator, Deepware, Phoneme-Viseme Mismatch y DuckDuckGoose. Estas herramientas utilizan algoritmos de aprendizaje automático para analizar patrones y buscar inconsistencias.
    • Para imágenes: fakeimagedetector.com (ELA y metadatos).
    • Para video en tiempo real: Trend Micro Deepfake Inspector puede detectar «faceswapping» en videollamadas y alertar al usuario.
    • Desafío: A medida que las capacidades de detección mejoran, también lo hace la calidad de los deepfakes, lo que requiere un desarrollo continuo de estas herramientas.

3. Marco Legal y Regulatorio: La cooperación global y la regulación son esenciales para combatir las amenazas de los deepfakes.

  • Derecho a la identidad: La «identidad digital» es una manifestación de la identidad física e intelectual/moral de la persona en el entorno digital. El derecho a la identidad, que es un concepto relativamente moderno en el derecho, busca proteger que una persona pueda vivir conforme a su propia percepción y que sea representada correctamente.
  • Legislación emergente:
    • Dinamarca se ha convertido en el primer país de Europa en regular los derechos de autor sobre el rostro, la voz y los rasgos personales para combatir los deepfakes, permitiendo la retirada obligatoria de contenido no consentido y compensaciones económicas, con multas severas para las plataformas que no cumplan.
    • La Unión Europea con el Artificial Intelligence Act (2024/1689) obliga a los proveedores de modelos de IA de propósito general a respetar los derechos de autor y a detallar los datos utilizados para su entrenamiento. La Digital Services Act (DSA) impone obligaciones a las plataformas intermediarias para actuar diligentemente contra contenidos ilegales y ser más transparentes.
    • En España, la Carta de Derechos Digitales reconoce el derecho a la identidad en el entorno digital y busca garantías para evitar manipulaciones y suplantaciones. La Ley Orgánica de Protección de Datos (LOPD) y el Reglamento General de Protección de Datos (RGPD) ofrecen derechos como la supresión de datos (Art. 15 LOPD, Art. 17 RGPD) y la actualización de informaciones en medios digitales (Art. 86 LOPD), que son relevantes para proteger la identidad digital.
  • Desafíos legales: La legislación actual es a menudo local y sujeta a interpretación, y la falta de armonización puede hacer que el incumplimiento sea más rentable. Además, el editor del deepfake es a menudo el único responsable, lo que dificulta la persecución si permanece anónimo. Las redes sociales, aunque amplifican la difusión, no siempre son responsabilizadas como distribuidoras.

4. Concienciación y Educación Pública: Es imprescindible que la población esté informada y educada sobre los deepfakes. Esto permitirá a los ciudadanos desconfiar y detectar las falsificaciones de baja calidad, reduciendo el impacto de los ataques de desinformación, estafa o daño moral. Un estudio reciente de iProov reveló que solo el 0.1% de las personas son capaces de detectar deepfakes con precisión, y un porcentaje significativo de adultos mayores ni siquiera ha oído hablar de ellos, lo que subraya la vulnerabilidad y la necesidad urgente de más concienciación y mecanismos de denuncia. Las empresas también deben invertir en ciberseguridad y programas de capacitación para empleados.

Impacto en personas vulnerables

La proliferación de suplantaciones y deepfakes representa un desafío significativo para todas las personas, pero el impacto puede ser aún más devastador para las poblaciones vulnerables, como las personas mayores y aquellas con discapacidad intelectual, debido a su mayor susceptibilidad y, a menudo, a una menor familiaridad con las tecnologías digitales.

  1. Personas mayores:
    • Las generaciones de más edad son más vulnerables a los deepfakes. Un estudio de iProov reveló que el 30% de las personas de 55 a 64 años y el 39% de las mayores de 65 años ni siquiera habían oído hablar de los deepfakes, lo que evidencia una importante laguna de conocimientos y una mayor susceptibilidad a esta amenaza emergente.
    • Existe un exceso de confianza galopante en sus propias habilidades de detección de deepfakes, a pesar de su pobre rendimiento en pruebas, lo que aumenta su vulnerabilidad.
    • La preocupación por la desinformación es particularmente pronunciada entre los mayores de 55 años, con hasta un 82% expresando esta inquietud.
    • Son susceptibles a fraudes financieros, como estafas donde se suplanta a figuras de confianza para solicitar transferencias de dinero o datos sensibles.
  2. Personas con discapacidad intelectual:
    • Aunque las fuentes no detallan específicamente el impacto en personas con discapacidad intelectual, se puede inferir que los riesgos generales de los deepfakes serían aún más acentuados. La dificultad intrínseca del ojo humano para distinguir deepfakes de contenido genuino (solo el 0.1% de las personas pudo hacerlo con precisión en un estudio) implica que aquellos con desafíos cognitivos tendrían una capacidad aún más limitada para detectar inconsistencias.
    • Estarían más expuestos a la desinformación y la manipulación de la opinión pública, lo que podría socavar su confianza en los medios y la realidad compartida.
    • Corren un riesgo elevado de daño moral y reputacional si su imagen o voz es utilizada sin consentimiento para fines maliciosos, ya que la instrumentalización de las personas a través de deepfakes contradice una ética de respeto por la dignidad humana.
    • También podrían ser víctimas de fraudes financieros o de robo de identidad si los deepfakes se utilizan para superar procesos de verificación biométrica.

Medidas de protección

Para proteger a estas poblaciones vulnerables, es fundamental adoptar un enfoque multifacético que combine la concienciación, la tecnología, la regulación y el apoyo social:

  1. Concienciación y educación pública adaptada:
    • La concienciación y educación pública son esenciales para reducir el riesgo de manipulación y desinformación. Para las personas mayores y con discapacidad intelectual, esta educación debe ser especialmente diseñada, simplificada y accesible, con materiales y formatos que se ajusten a sus necesidades.
    • Se debe fomentar la desconfianza ante contenidos inusuales y la verificación de la información a través de fuentes alternativas y confiables. Programas que enseñen a identificar señales de manipulación, como movimientos faciales antinaturales, iluminación irregular o desajustes de audio/video, son cruciales.
  2. Desarrollo y aplicación de tecnologías de detección:
    • Dado que los humanos por sí solos no pueden distinguir de forma fiable lo real de lo falso, es necesario confiar en la tecnología para detectar deepfakes.
    • Las plataformas y servicios que interactúan con estas poblaciones deben implementar soluciones de detección de deepfakes basadas en IA. Estas herramientas buscan patrones inusuales, inconsistencias y anomalías en videos, imágenes y audios.
    • Es vital el uso de biometría facial avanzada con detección de actividad (liveness), que verifica que un individuo es una persona real y se está autenticando en el momento, protegiendo contra la suplantación de identidad en procesos de verificación de usuarios.
  3. Marcos legales y responsabilidad de las plataformas:
    • Se requiere legislación para establecer directrices y hacer cumplir la normativa. Iniciativas como la ley de Dinamarca, que otorga a las personas derechos de autor sobre su rostro, voz y cuerpo, permitiendo exigir la eliminación de deepfakes sin consentimiento y solicitar indemnización, son un precedente importante.
    • La Ley de Inteligencia Artificial de la UE (Regulation 2024/1689) ya exige a los proveedores de modelos de IA respetar los derechos de autor y detallar los datos utilizados para el entrenamiento. También se plantea que los usuarios etiqueten el contenido generado por IA.
    • Las redes sociales y otros proveedores de servicios en línea deben desempeñar un papel más activo en la identificación y eliminación de contenido deepfake de sus plataformas. Sus algoritmos amplifican la difusión de contenido viral, por lo que su responsabilidad como distribuidores debe ser revisada.
  4. Protección del derecho a la identidad digital:
    • El reconocimiento jurídico de la identidad digital es imprescindible para proteger a las personas en el entorno virtual, ya que la suplantación de identidad es un problema principal.
    • Se debe garantizar el derecho a la rectificación, el derecho de supresión de datos personales y el derecho a la actualización de informaciones en medios digitales para corregir cualquier distorsión de la identidad que pueda surgir por deepfakes o información incompleta.

La protección de las personas vulnerables frente a los deepfakes exige que todos los actores de la sociedad (legisladores, empresas tecnológicas, plataformas, educadores y la propia ciudadanía) trabajen de forma coordinada para construir un entorno digital más seguro y confiable.

Dinamarca: Una Propuesta Pionera para Blindar Legalmente el Rostro, la Voz y el Cuerpo y Fortalecer la Identidad Digital Frente a los Deepfakes.

La propuesta de Dinamarca de otorgar a las personas derechos de autor sobre su rostro, voz y rasgos personales para combatir los deepfakes, es una iniciativa pionera en Europa que busca establecer un control legal sobre la propia imagen en la era digital. Respaldada por un 90% del parlamento danés, esta reforma legislativa pretende blindar los derechos individuales frente a la tecnología de inteligencia artificial (IA) capaz de suplantar identidades con efectos potencialmente graves.

El título original se refiere al «Copyright de nuestro rostro, voz y rasgos personales» en el contexto de la propuesta de Dinamarca contra los deepfakes. A partir de la información proporcionada en los documentos, se puede reformular el título para ser más preciso e impactante, destacando la naturaleza pionera de la iniciativa y la ampliación de la protección legal sobre la identidad en el entorno digital.

Una propuesta de título reescrita, basada en la información de los documentos, podría ser:

«Dinamarca: Una Propuesta Pionera para Blindar Legalmente el Rostro, la Voz y el Cuerpo y Fortalecer la Identidad Digital Frente a los Deepfakes.»

Esta reformulación incorpora varias ideas clave de los documentos:

  • «Dinamarca: Una Propuesta Pionera»: Dinamarca se está preparando para ser el primer país de Europa en regular el copyright sobre rasgos personales, marcando un precedente legal relevante en la era de la IA. Esta iniciativa es impulsada por el ministro de Cultura, Jakob Engel-Schmidt, y busca dejar claro que «todas las personas tienen derechos sobre su propio cuerpo, su propia voz y sus propios rasgos faciales».
  • «Blindar Legalmente el Rostro, la Voz y el Cuerpo»: La propuesta de ley busca otorgar a los ciudadanos el «control legal de su propia imagen, voz y rasgos físicos». El objetivo es «blindar legalmente los derechos personales frente a una tecnología capaz de suplantar identidades reales». La ley permitirá exigir la eliminación de contenidos deepfake compartidos sin consentimiento y solicitar indemnización por uso indebido de la imagen o voz.
  • «Fortalecer la Identidad Digital»: Los deepfakes son una amenaza para la identidad, incluida la digital. El documento de Dialnet explica que la identidad digital alude al «conjunto de signos o rasgos (‘atributos’) de una persona que son consustanciales a ella de una manera inequívoca en el entorno digital y que permiten diferenciarla de los demás». El robo de la identidad digital es uno de los principales retos, y las nuevas tecnologías facilitan «construir en Internet la identidad de una persona que no se corresponda efectivamente con la auténtica y original». El reconocimiento jurídico de la identidad digital es «imprescindible» para proteger a los usuarios frente al «big data» y las vulneraciones de derechos. La protección de la identidad digital implica coordinar acciones con la legislación de protección de datos, incluyendo derechos de supresión y rectificación de datos personales.
  • «Frente a los Deepfakes»: La ley danesa tiene como objetivo principal «combatir la proliferación de deepfakes», que son videos, imágenes o audios generados por inteligencia artificial que «imitan la apariencia y voz de una persona con tal precisión que pueden engañar tanto a las personas como a los algoritmos». Los deepfakes son utilizados para la desinformación, fraude, extorsión y pornografía no consentida.

Para analizar su viabilidad y efectividad, es fundamental considerar tanto sus pros como sus contras y los desafíos inherentes al ecosistema digital y la constante evolución de la IA.

Viabilidad y Efectividad: Pros

  1. Protección directa y control individual de la identidad digital: Esta ley es un paso significativo al otorgar explícitamente a los ciudadanos el control legal sobre su propia imagen, voz y rasgos físicos. Esto es crucial en un contexto donde los deepfakes, que combinan «aprendizaje profundo» y «falso», pueden imitar la apariencia y voz de una persona con tal precisión que engañan tanto a humanos como a algoritmos. Al establecer derechos sobre estos atributos personales, se busca evitar que las personas sean «fotocopiadas digitalmente y utilizadas indebidamente para todo tipo de fines».
  2. Mecanismos de defensa y compensación para las víctimas: La propuesta incluye medidas concretas como la retirada obligatoria de contenidos deepfake compartidos sin consentimiento y la posibilidad de solicitar compensación económica por el uso indebido de la imagen o voz. Esto proporciona un recurso legal directo para las víctimas, que va más allá de las protecciones indirectas ofrecidas por otras normativas.
  3. Responsabilidad de las plataformas y un nuevo estándar europeo: La ley establece que las redes sociales y otros servicios digitales deberán cumplir rápidamente con las solicitudes de retirada, bajo riesgo de «multas severas» e incluso intervención de la Comisión Europea. Esta medida es vital, ya que actualmente las leyes no siempre responsabilizan a las plataformas como «distribuidoras» del contenido, a pesar de que sus algoritmos amplifican la difusión. Al ser Dinamarca el primer país europeo en regular el copyright sobre rasgos personales, marca un precedente legal que su ministro de Cultura buscará promover en todo el bloque de la Unión Europea.
  4. Promoción de un uso ético y responsable de la IA: Al imponer un marco regulatorio, la iniciativa danesa impulsa que la tecnología deepfake se utilice de manera ética y responsable, fomentando la innovación sin socavar la confianza pública. Además, la ley protegerá expresamente la sátira y la parodia, lo que busca evitar la censura y permitir usos legítimos de la tecnología.
  5. Afronta la «democratización» de los deepfakes: La creación de deepfakes es cada vez más sencilla, con aplicaciones de fácil manejo y un mercado emergente conocido como «Deepfake as a Service». Esta propuesta busca contener el impacto de esta accesibilidad, especialmente en un contexto donde los deepfakes son una preocupación mayor que el robo de identidad para muchas organizaciones.

Desafíos y Contras (Viabilidad y Efectividad)

  1. Naturaleza evolutiva de la tecnología deepfake: La calidad de los deepfakes mejora constantemente, impulsada por los avances en el aprendizaje automático y las Redes Generativas Adversarias (GAN). Esto plantea un «desafío continuo» para las herramientas de detección. A medida que la capacidad de detección mejora, también lo hace la sofisticación de las falsificaciones, creando una carrera armamentística tecnológica constante.
  2. Dificultad en la detección humana y anonimato: Como hemos visto anteriormente el estudio de iProov revela que solo el 0,1% de las personas son capaces de detectar deepfakes con precisión, y un porcentaje significativo de adultos mayores ni siquiera ha oído hablar de ellos. Esta falta de concienciación pública dificulta la identificación y denuncia por parte de las víctimas. Además, si el creador del deepfake permanece anónimo, la persecución legal se vuelve muy difícil.
  3. Complejidad del concepto de «identidad digital» y armonización legal: El «derecho a la identidad» es un concepto relativamente moderno y en constante evolución. La identidad digital, como manifestación de la identidad física e intelectual/moral en el entorno digital, también es un concepto que aún no está plenamente definido jurídicamente. La ley danesa, al hablar de «copyright» sobre rasgos personales, podría generar debates sobre su relación con derechos de la personalidad ya existentes como el derecho a la propia imagen, el honor, la intimidad y la protección de datos personales. Aunque la intención es buena, la falta de armonización legal global puede hacer que el incumplimiento sea «más rentable que cumplir».
  4. Alcance y aplicación en redes sociales: Los deepfakes se viralizan a menudo a través de redes sociales, cuyos algoritmos amplifican la difusión de contenidos llamativos y emocionales. A pesar de que la ley danesa busca responsabilizar a las plataformas, las regulaciones actuales a menudo no las responsabilizan directamente como distribuidoras, sino que solo les exigen actuar diligentemente ante contenidos ilegales una vez identificados. El desafío reside en la velocidad de propagación versus la capacidad de las plataformas para actuar.
  5. Impacto social más allá de lo legal: Aunque se establezcan marcos legales, la proliferación de deepfakes y la desinformación puede llevar a una «apatía de la realidad» o «apocalipsis de la información», donde la gente ya no sabe qué fuentes son fiables, socavando la confianza en los medios y la democracia. Este es un problema societal profundo que una ley no puede resolver por sí sola.

En resumen, la propuesta danesa es una iniciativa audaz y necesaria para otorgar a los individuos un control más granular sobre su identidad digital en la era de los deepfakes. Su viabilidad y efectividad dependerán de la capacidad de la tecnología para mantenerse al día con la sofisticación de los deepfakes, de la armonización legal a nivel europeo e internacional, y de la concienciación pública sobre los riesgos. Si bien busca llenar un vacío legal en la protección de atributos personales, enfrentará los desafíos de la velocidad del desarrollo tecnológico y la naturaleza global de la desinformación. Es un paso crucial, pero que forma parte de una batalla continua y multifacética.

Como nos puede ayudar la filosofía a entender el impacto en la sociedad de los deepfake

La proliferación de suplantaciones y deepfakes plantea profundos desafíos éticos y filosóficos en la era digital, difuminando la línea entre lo real y lo ficticio. Diversos pensadores y expertos han abordado estas implicaciones, destacando la crisis de confianza, la instrumentalización de las personas y la banalización cultural.

A continuación, se detallan las principales aportaciones filosóficas sobre el impacto de las suplantaciones y los deepfakes, basándose en las fuentes proporcionadas:

  • Crisis de la verdad y la confianza:
    • La manipulación de imágenes a través de deepfakes genera preocupaciones fundamentales sobre la verdad, la confianza y la ética en la comunicación visual. Las imágenes y videos pueden ser tan convincentes que logran que una persona parezca decir o hacer algo que nunca ocurrió, bajo el velo de la falsificación digital.
    • Películas como Forrest Gump y Wag the Dog ya anticiparon un cambio en la credibilidad visual, mostrando cómo la realidad podía ser manipulada.
    • La filosofía busca discernir entre el bien y el mal, lo justo y lo injusto. En este contexto, se vuelve esencial para abordar la manipulación visual, especialmente cuando la tecnología supera la capacidad de respuesta humana.
    • Adela Cortina, influyente pensadora en ética aplicada, enfatiza la importancia de construir una ciudadanía responsable y un entorno de confianza mutua. La creación de deepfakes distorsiona la imagen hasta hacer irreconocible la verdad, erosionando la confianza en lo que vemos.
    • Jacques Ellul, en La Propaganda, ya advertía sobre los peligros de la manipulación de la imagen en un consumo masivo de medios. Hoy, esta advertencia es aún más relevante, ya que las imágenes no solo son interesadas, sino alteradas para transmitir falsedades con apariencia de autenticidad, lo que lleva a una crisis de confianza en la comunicación visual. La manipulación digital convierte en incierto aquello que antes se daba por hecho: que una imagen es un reflejo de la realidad.
    • Los expertos temen que la creciente disponibilidad de desinformación y deepfakes pueda llevar a una «apatía de la realidad» o «apocalipsis de la información», donde los ciudadanos ya no tengan una realidad compartida o duden de qué fuentes son fiables, socavando la confianza en los medios y la democracia.
  • Violación de la dignidad y autonomía humana:
    • Immanuel Kant y su Imperativo Categórico sostienen que las acciones deben ser universalizables. Desde esta perspectiva, la creación de deepfakes no sería moralmente aceptable, ya que fomenta el engaño y viola la dignidad humana.
    • Al tratar a los demás como fines en sí mismos y no como medios, Kant sugiere que los deepfakes —que a menudo se usan para difamar, manipular o explotar— instrumentalizan a las personas, cosificándolas para cumplir objetivos ajenos. Esta cosificación contradice una ética de respeto por la humanidad.
    • La creación de deepfakes se realiza frecuentemente sin el conocimiento o consentimiento de las personas implicadas, violando su derecho a controlar su propia imagen y su identidad. Kant, de nuevo, ofrece una respuesta al señalar que cada ser humano tiene un valor intrínseco y debe ser respetado en su capacidad de autodeterminación.
  • Responsabilidad colectiva y ética de la imagen:
    • La tecnología deepfake, aunque no es inherentemente reprochable, plantea un desafío ético por su uso y consecuencias. Adela Cortina argumenta que la responsabilidad ética no recae solo en los individuos, sino también en las instituciones que permiten la proliferación de estas tecnologías sin una regulación adecuada. La responsabilidad ética debe ser compartida por todos los actores involucrados.
    • La proliferación de deepfakes obliga a repensar la ética de la imagen en el mundo digital. Es una responsabilidad moral que concierne tanto a los creadores de las tecnologías como a quienes consumen y comparten el contenido manipulado. El respeto por la verdad y la dignidad humana debe ser el principio rector de cualquier comunicación visual en esta era donde realidad y ficción se entrelazan.
  • Banalización cultural y artística:
    • La popularización de los generadores de imágenes con IA, capaces de recrear estilos artísticos reconocibles, ha reabierto debates sobre la banalización del arte y el extractivismo cultural.
    • Quelic Berga Carreras, profesor de la UOC, considera que la «ghiblificación» de internet es un caso de apropiacionismo o apropiación cultural. Al pedir a la máquina que copie estilos sin filtros, se banaliza un arte que se basa en el cuidado y el respeto.
    • Berga alerta que esto es un extractivismo cultural que trivializa referentes humanos profundos, reproduciendo un colonialismo sobre culturas ajenas al despojar rasgos de su significado para explotación masiva.
    • Los principales riesgos para la creación artística incluyen la pérdida de autoestima creativa de los artistas, un desdibujamiento cultural progresivo por la hibridación extrema de estilos, y una creciente banalización del arte al vaciarlo de contenido profundo y sustituir el sentido social por la apariencia estética. El propio Hayao Miyazaki criticó el uso de IA para replicar movimientos humanos, señalando que «no entendéis el sentido del esfuerzo humano».

Conclusiones

El impacto de los deepfakes se extiende más allá de lo legal y tecnológico, afectando la percepción de la realidad, la confianza social y la esencia misma de la identidad y la creación humana, requiriendo un enfoque ético y colectivo para su abordaje.

Los deepfakes representan una amenaza evolutiva que exige una respuesta multifacética. La concienciación, el desarrollo de herramientas de detección avanzadas y un marco legal y regulatorio sólido son fundamentales para salvaguardar nuestra confianza en la información y proteger nuestra identidad en la creciente era digital.

Deja un comentario

Este sitio utiliza Akismet para reducir el spam. Conoce cómo se procesan los datos de tus comentarios.