Estos días el mundo de la IA anda revolucionado desde que Open AI ha presentado su nuevo modelo de IA, SORA, que permite crear videos de 1 minuto de alta calidad a partir de una instrucción de texto. No se trata de un lanzamiento sino de la presentación de un modelo de IA al que todavía le queda un tiempo en el laboratorio. Y parte de este tiempo quieren destinarlo a crear un sistema que permita reconocer, de forma sencilla, los videos que han sido creados por SORA.
Y esto me ha llevado a elegir el tema para esta semana: los deepfakes, es decir, la técnica que a partir de programas de inteligencia artificial combina, remplaza y superpone imágenes, videos y audios para crear videos o fotografías que parezcan auténticos y reales.
¿Jugamos?
Una primera aproximación a los deepkafe tiene que ver con el juego, con la diversión, con usar estas herramientas para crear imágenes o videos a priori inocentes.
Le puedes pedir a una de estas herramientas que combine dos imágenes, una de Steve Jobs y otra mía y genere este resultado.
Si, lo sé, esta foto no engaña a nadie, pero tiene su gracia.
¿es fácil?
Lo cierto es que usar este tipo de herramientas es de lo más fácil y sencillo. Sólo tienes que hacer una simple búsqueda en Google pidiéndole herramientas para generar deepfakes y los resultados son interminables. Deepfakes Web, reface, DeepSwap, Artguru AI o DeepFace Lab son sólo algunas de las centenares o miles de páginas a partir de las cuales puedes crear estos deepfakes.
Su nivel de realismo dependerá de factores como la potencia que tenga el algoritmo o lo que estés dispuesto a pagar para usarlo.
¿los podrías diferenciar?
La inocencia empieza a desvanecerse cuando te preguntas si seríamos capaces de identificar cuando se trata de una imagen o un video real o de una creación a través de estos algoritmos.
En algunos casos el contexto o el llevar la situación al límite hacen que aunque la imagen parezca real, sabes que no lo es. Y, sino que se lo cuenten al Papa Francisco o a Donald Trump.
En otros casos, cuando el deepfake busca el realismo auténtico, se complica el ser capaz de asegurar que esa imagen o video no es falso.
¿Y a partir de aquí que hacemos?
Parece que las grandes tecnológicas han entendido que no se trata de un juego y que la aparición y desarrollo de estas tecnologías puede generar problemas bastante más profundos de lo que imaginamos. Por definición un deepfake buscan la percepción máxima de realidad y autenticidad lo que lleva asociados riesgos como la desinformación o la suplantación de identidad (investigadores de la universidad de Sungkyunkwan han demostrado que la mayoría de apis de reconocimiento facial pueden ser superadas mediante el uso de deepfakes).
El 6 de febrero, Meta comunicó que está trabajando en un sistema para etiquetar las imágenes generadas por IA en Facebook, Instagram y Threads (si alguien usa las herramientas de IA de Meta para crear imágenes, la empresa añadirá marcadores visibles a la imagen, así como marcas de agua invisibles y metadatos en el archivo de imagen).
El 8 de febrero, Google anunció que se une a otros gigantes tecnológicos como Microsoft y Adobe en el comité directivo de la C2PA (protocolo de Internet de código abierto que se basa en la criptografía para codificar detalles sobre el origen de un contenido, o lo que los tecnólogos denominan información de "procedencia") e incluirá su marca de agua SynthID en todas las imágenes generadas por IA en sus nuevas herramientas Gemini.
Finalmente, OpenAI también anunció unos días más tarde nuevas medidas de procedencia de contenidos mediante las cuales añadirá marcas de agua a los metadatos de las imágenes generadas con ChatGPT y DALL-E 3, su IA creadora de imágenes.
Y a todo ello se suman las legislaciones que tratan de limitar y controlar estos sistemas. En Europa la recientemente aprobaba AI Act o en Estados Unidos la Digital Services Act especifican la obligación de las compañías tecnológicas en identificar las imágenes y videos generados por IA y retirarlos en caso de ser considerados perjudiciales.
Por cierto, fruto de esta legislación en Estados Unidos recientemente se ha podido prohibir y eliminar el uso de un deepfake simulando la voz del presidente Biden en llamadas automáticas pidiendo a los electores que no votaran.
¿ya hemos resuelto el problema?
Lo cierto es que como sabemos todos, las marcas de agua sobre las que trabajan todas estas compañías y legislaciones no son la solución definitiva, dado que existen sistemas y mecanismo (busca en Google y veras) para poder eliminarlas. Pero como mínimo es un paso adelante que nos puede llevar a tener puesta nuestra mirada crítica en cualquier imagen o vídeo buscando el reconocer su autenticidad y veracidad.
¿y hacia dónde vamos?
Open AI nos ha avisado sacando una muestra de lo que pueden hacer:
Quizás han tenido un ataque de ética y quieren prepararnos para que dejemos de aceptar como creíble todo lo que vemos y sepamos que, a partir de ahora, se pueden crear videos de alta calidad y realismo a partir de una simple frase.
La aparición de SORA y la capacidad creciente de generar deepfakes plantean un dilema ético que no podemos ignorar. ¿Dónde trazamos la línea entre el avance tecnológico y la responsabilidad moral? La tecnología, en su esencia neutra, adquiere color y consecuencias en manos de quienes la utilizan. Así, la cuestión fundamental no es si podemos crear representaciones hiperrealistas a través de IA, sino cómo y para qué propósitos decidimos hacerlo. Este momento nos invita a reflexionar sobre la necesidad de un marco ético robusto que acompañe el desarrollo de estas tecnologías, garantizando que su implementación no solo sea innovadora, sino también justa y segura para todos. Estamos ante el inicio de una potencial crisis de la verdad.
En conclusión, la evolución de los deepfakes y la presentación de tecnologías como SORA nos sitúan en una encrucijada crítica de nuestra era digital. La línea entre la realidad y la ficción tecnológicamente creada se vuelve cada vez más difusa, planteando retos significativos para la integridad informativa, la seguridad personal y la confianza en el contenido digital. Es imperativo que como sociedad desarrollamos y fortalecemos nuestro sentido crítico, no dando por sentado la veracidad de lo que nuestros ojos y oídos perciben a través de las pantallas. Además, esta reflexión debe traducirse en acciones concretas: desde el apoyo a legislaciones que promuevan la transparencia y la responsabilidad en la creación y distribución de contenidos digitales, hasta la educación mediática que nos habilite para navegar con discernimiento en el vasto mar de la información.
El futuro de nuestra coexistencia con la IA está en juego, y es nuestra responsabilidad colectiva moldear ese futuro hacia un horizonte donde la tecnología amplíe nuestras posibilidades sin comprometer nuestra esencia humana y social.
Y, como siempre, Seguimos!