En la sesión de apertura de su curso introductorio de 2020 sobre aprendizaje profundo, Alexander Amini, estudiante de doctorado en el Instituto de Tecnología de Massachusetts (MIT), invitó a un invitado famoso: el ex presidente de Estados Unidos, Barack Obama.
“El aprendizaje profundo está revolucionando muchos campos, desde la robótica hasta la medicina y todo lo demás”, dijo Obama, quien se unió a la clase por videoconferencia.
Después de hablar un poco más sobre las virtudes de la inteligencia artificial, Obama hizo una importante revelación: "De hecho, todo este discurso y video no son reales y fueron creados usando aprendizaje profundo e inteligencia artificial".
El video de Obama de Amini fue, de hecho, un deepfake—Un video manipulado por IA en el que los movimientos faciales de un actor se transfieren a los de un objetivo.
Desde que apareció por primera vez en 2018, la tecnología deepfake ha evolucionado de la experimentación de aficionados a una herramienta efectiva y peligrosa.
Los deepfakes se han utilizado contra celebridades y políticos y se han convertido en una amenaza para el tejido mismo de la verdad.
¿Cómo funcionan los deepfakes?
Las aplicaciones deepfake funcionan de varias formas.
Algunos transfieren los movimientos faciales de un actor a un video objetivo, como el que vimos al principio de este artículo, o este deepfake de Obama creado por el comediante Jordan Peele para advertir sobre la amenaza de las fake news:
Otros deepfakes mapean el rostro de una persona objetivo en otros videos; por ejemplo, este video del rostro de Nicolas Cage se asigna al de los personajes de diferentes películas.
Como la mayoría de las aplicaciones contemporáneas basadas en IA, los deepfakes utilizan redes neuronales profundas (de ahí viene lo "profundo" de deepfake), un tipo de algoritmo de IA que es especialmente bueno para encontrar patrones y correlaciones en grandes conjuntos de datos.
Las redes neuronales han demostrado ser especialmente buenas en la visión por computadora, la rama de la informática y la inteligencia artificial que maneja datos visuales.
Deepfakes utiliza un tipo especial de estructura de red neuronal llamada "codificador automático".
Los codificadores automáticos se componen de dos partes: un codificador, que comprime una imagen en una pequeña cantidad de datos; y un decodificador, que descomprime los datos comprimidos de nuevo en la imagen original.
El mecanismo es similar a los de los códecs de imagen y video como JPEG y MPEG.
Pero a diferencia del software codificador / decodificador clásico, que trabaja en grupos de píxeles, el codificador automático opera en las características que se encuentran en las imágenes, como formas, objetos y texturas.
Un codificador automático bien entrenado puede ir más allá de la compresión y la descompresión y realizar otras tareas, por ejemplo, generar nuevas imágenes o eliminar el ruido de las imágenes granuladas.
Cuando se entrena con imágenes de caras, un codificador automático aprende las características de la cara: los ojos, la nariz, la boca, las cejas, etc.
Las aplicaciones Deepfake utilizan dos codificadores automáticos: uno entrenado en la cara del actor y el otro en la cara del objetivo.
La aplicación intercambia las entradas y salidas de los dos codificadores automáticos para transferir los movimientos faciales del actor al objetivo.
¿Qué hace que Deepfakes sea especial?
La tecnología Deepfake no es la única que puede intercambiar caras en videos.
De hecho, la industria de VFX (efectos visuales) ha estado haciendo esto durante décadas.
Pero antes de los deepfakes, la capacidad se limitaba a los estudios cinematográficos con mucho dinero y acceso a abundantes recursos técnicos.
Los deepfakes han democratizado la capacidad de intercambiar caras en videos.
La tecnología ahora está disponible para cualquiera que tenga una computadora con un procesador decente y una tarjeta gráfica fuerte (como la Nvidia GeForce GTX 1080) o que pueda gastar unos cientos de dólares para alquilar recursos de GPU y computación en la nube.
Dicho esto, la creación de deepfakes no es trivial ni está completamente automatizada.
La tecnología está mejorando gradualmente, pero crear un deepfake decente aún requiere mucho tiempo y trabajo manual.
Primero, debes recopilar muchas fotos de los rostros del objetivo y el actor, y esas fotos deben mostrar cada rostro desde diferentes ángulos.
El proceso generalmente implica tomar miles de fotogramas de videos que presentan al objetivo y al actor y recortarlos para que contengan solo las caras.
Las nuevas herramientas deepfake como Faceswap pueden hacer parte del trabajo preliminar automatizando la extracción y el recorte del marco, pero aún requieren ajustes manuales.
Entrenar el modelo de IA y crear el deepfake puede llevar desde varios días hasta dos semanas, según la configuración de su hardware y la calidad de sus datos de entrenamiento.
Los peligros de los deepfakes
La creación de videos educativos divertidos y transmisiones personalizadas para sus películas favoritas no son los únicos usos de deepfakes.
Los videos manipulados por IA tienen un lado más oscuro que se ha vuelto mucho más prominente que sus usos positivos y benignos.
Poco después del lanzamiento del primer programa deepfake, Reddit se inundó de videos pornográficos falsos que mostraban celebridades y políticos.
Junto con los deepfakes, el desarrollo de otras tecnologías impulsadas por IA ha hecho posible no solo fingir la cara sino también la voz de prácticamente cualquier persona.
Recomendado por nuestros editores
El auge de los deepfakes también ha causado otras preocupaciones.
Aquí hay uno oportuno: si alguien puede usar la tecnología para crear pornografía falsa, ¿qué impide que los malos actores difundan videos falsos de políticos que hacen comentarios controvertidos?
Con los informes sobre cómo los algoritmos de las redes sociales aceleran la difusión de información falsa, la amenaza de una crisis de noticias falsas desencadenada por la tecnología deepfake se ha convertido en una seria preocupación, especialmente mientras Estados Unidos se prepara para las elecciones presidenciales de 2020.
Los legisladores estadounidenses han señalado a los deepfakes como una amenaza para la seguridad nacional y han celebrado varias audiencias sobre posibles usos indebidos de la tecnología para influir en la opinión pública a través de campañas de desinformación.
Y hemos visto una serie de medidas legislativas para prohibir las deepfakes y responsabilizar a las personas que las crean y distribuyen.
La lucha contra los deepfakes
Los deepfakes anteriores contenían artefactos visuales que eran visibles a simple vista, incluido un parpadeo antinatural de los ojos y variaciones anormales del color de la piel.
Pero los deepfakes mejoran constantemente.
Los investigadores han estado ideando nuevas técnicas para detectar deepfakes solo para ver que se vuelven ineficaces a medida que la tecnología continúa evolucionando y arrojando resultados más naturales.
Entonces, a medida que se acercan las elecciones presidenciales de 2020, las principales empresas de tecnología y agencias gubernamentales se han apresurado a contrarrestar la propagación de las falsificaciones profundas.
En septiembre, Facebook, Microsoft y varias universidades lanzaron un concurso para desarrollar herramientas que puedan detectar deepfakes y otros videos manipulados por IA.
"Este es un problema en constante evolución, al igual que el spam u otros desafíos adversarios, y nuestra esperanza es que al ayudar a la industria y a la comunidad de IA a unirse, podamos lograr un progreso más rápido", escribió el CTO de Facebook, Michael Schroepfer, en una publicación de blog que presentó Deepfake Desafío de detección.
El gigante de las redes sociales ha asignado $ 10 millones al esfuerzo de toda la industria.
DARPA, el brazo de investigación del Departamento de Defensa, también ha lanzado una iniciativa para frenar la propagación de deepfakes y otros ataques automatizados de desinformación.
Además de detectar videos e imágenes manipulados, DARPA buscará formas de facilitar la atribución e identificación de las partes involucradas en la creación de medios falsos.
Otros esfuerzos en universidades y laboratorios de investigación van desde el uso de aprendizaje profundo para detectar áreas modificadas en imágenes hasta el uso de blockchain para establecer una verdad básica y registrar videos confiables.
Pero en general, los investigadores están de acuerdo en que la lucha contra las falsificaciones profundas se ha convertido en una persecución del gato y el ratón.
Como me dijo un investigador el año pasado, “Hagamos lo que hagamos, a las personas que crean esas manipulaciones se les ocurre otra cosa.
No sé si alguna vez habrá un momento en el que podamos detectar todo tipo de manipulación ".