¿Para que fue creado el deepfake? Descúbrelo en el artículo de OBS Business School

Deepfake: Entre fantástico y peligroso

Blog |

Deepfake es un tipo de inteligencia artificial que se utiliza para crear vídeos falsos pero convincentes, a tal punto que no se percibe la diferencia entre lo real y lo ficticio.  

El término es acuñado por la conjunción de la tecnología Deep Learning y el contenido falso o noticias falsas que en inglés y en cualquier otro idioma se ha generalizado como Fake News. Así, Deepfake describe tanto la tecnología como el contenido falso resultante. 

Tal fue explicado en uno de nuestros de post de agosto de 2018, Deep Learning o aprendizaje profundo, es una forma de inteligencia artificial que se basa en el aprendizaje mediante ejemplos. En lugar de enseñarle al software un listado de reglas para resolver un problema, se le da un modelo en donde pueda evaluar ejemplos y una pequeña cantidad de instrucciones para modificarlo. De esta forma, los algoritmos son capaces de aprender sin intervención humana. 

Cómo se crea contenido Deepfake 

El contenido deepfake se crea mediante el uso de dos algoritmos de inteligencia artificial llamados Generador y Discriminador. Ambos compiten entre sí, el generador es el que crea el contenido multimedia falso y le pide al discriminador que identifique si es real o artificial. Juntos, el generador y el discriminador forman lo que se denomina Red Generativa Adversaria (GAN, por sus siglas en inglés de Generative Adversarial Network). Cada vez que el discriminador identifica con precisión el contenido como falso, proporciona al generador información sobre cómo mejorar el próximo deepfake. A medida que el generador perfecciona en la creación de videoclips falsos, el discriminador también mejora la capacidad para detectarlos. Paralelamente y como feedback, a medida que el discriminador mejora en la detección de fakes, el generador afina en su creación. 

El origen de esta tecnología comienza con la búsqueda de la solución al problema de los doblajes en el mundo del cine. La aplicación de AI (Artificial Intelligence) a los doblajes fue desarrollada por Flawless, una compañía británica cofundada por el director Scott Mann, luego de que varias escenas de películas se vean altamente perjudicadas por deficiencias en las traducciones. 

Pero el desarrollo del deepfake no se limitó únicamente al doblaje, sino que ha ido un poco más allá. Se buscó la forma de capturar las expresiones faciales y los movimientos de un actor en una escena, así como los correspondientes a alguien que habla las mismas líneas pero en otro idioma. Luego, se combinan para crear un modelo 3D que fusiona la cara y la cabeza del actor con los movimientos de los labios del traductor.  

El resultado es una persona que habla y gesticula escenas que nunca ha hecho. 

El lado oscuro del deepfake 

Hasta hace poco tiempo atrás, el contenido de un vídeo era difícil de alterar sin evidenciar defectos. Sin embargo, debido a que los deepfakes se crean a través de la inteligencia artificial, no se requiere de una habilidad especial para crear un video realista falso. Actualmente, existen programas gratuitos de deepfake y apps, que pueden cambiar sencillamente la cara de una persona por la de otra en una escena de video. El software identifica puntos clave en el rostro de la persona y utiliza el aprendizaje automático para capturar cómo gesticula, creando videos sintéticos creíbles y de apariencia realista.  

La aplicación WOMBO, por ejemplo, que puede instalarse en cualquier smartphone, con una simple fotografía de una persona puede emular un vídeo de ella cantando. No se necesita ser experto, sólo tomar un buen primer plano del rostro de alguien y cargarlo. Luego se elige una canción y voilà!, la fotografía cobra vida y se genera un vídeo gesticulando y cantando. Es muy divertido e inofensivo, pero ya es posible transformar una foto en un vídeo. 

La manipulación de vídeos con inteligencia artificial es controvertida. Si bien, como se ha comentado, puede utilizarse para mejorar el cine, también es posible usarla para difundir información falsa a través de las redes sociales, con fines adversos. De hecho, una de las primeras aplicaciones en el mundo real para los deepfakes fue crear pornografía. Otro uso difundido es en el ámbito de la política, donde han aparecido presidentes dando un discurso que nunca hicieron. 

En concordancia con la opinión de varios expertos, los deepfakes se volverán mucho más precisos a medida que la tecnología se desarrolle y podrían introducir amenazas más serias para la sociedad, relacionadas con la interferencia electoral, la tensión política y la actividad criminal. 

Sin embargo, los softwares de detección de deepfake, también impulsados por AI, se tornará mucho más eficientes y la batalla entre lo real y lo ficticio debería quedar equilibrada. 

Cuáles son las alternativas a seguir 

Al igual que hemos comentado en otros post, el avance de las tecnologías no puede detenerse y/o evitarse, más allá de que se pueda demorar en su lanzamiento y difusión. Tarde o temprano, la tecnología se abre camino. Consecuentemente, la lucha entre lo real y lo virtual continuará. 

Probablemente se creen leyes y reglamentaciones que regulen el uso indebido de los deepfakes. Por su parte, las plataformas tecnológicas como YouTube, Facebook, Instagram, Twitter, Google, Tik Tok, etc., deberán adoptar acciones más rigurosas para limitar la propagación de deepfakes malintencionados o que atenten contra la integridad de las personas. 

Creo que este es uno de los post que más me ha costado cerrar. En general, las tecnologías, métodos y herramientas presentados conllevan un final prometedor y positivo para nuestra evolución. Sin embargo, esta tecnología maravillosa, creada con fines nobles, inclina la balanza hacia lado negativo. Debido a la peligrosidad de las noticias falsas, existe temor por sus impactos y consecuencias. Por ello es que una buena acción es la difusión y la recomendación de la evaluación de las fuentes, antes de asumir algo como verdadero. 

Para hacer frente a los deepfakes, en este caso más que nunca, debemos estar preparados.