
En esta etapa de su desarrollo, algo indudablemente espeluznante todavía corre a través de los deepfakes, una etiqueta general, pero engañosa, para los videos falsos creados y manipulados con la ayuda de inteligencia artificial (IA) y aprendizaje automático profundo.
No se trata solo de los videos extraños, un poco fuera de lugar y que no son del todo correctos producidos por estos programas de software cada vez más sofisticados. Aunque, sí, pueden resultar inquietantes. Y tampoco es solo el dilema ético de alterar fotos y videos originales. Aunque definitivamente eso es hurgar en un nido de avispas.
Sobre todo, es la idea de que nos estamos acercando rápidamente a un punto en el que simplemente no podemos confiar en nuestros propios ojos. ¿Es esa foto una descripción real de su tema? ¿Es ese video? ¿Esa cara va con ese cuerpo? ¿Van esas palabras con esa cara?
¿Ese tipo realmente puede bailar así?
La informática detrás de los deepfakes
A fines de 2017, un usuario de Reddit conocido como Deepfakes, según Know Your Meme , reveló algunos videos pornográficos de intercambio de caras: es exactamente tan triste y patético como suena; la cara de alguien, a menudo una figura pública, se superpuso a la cabeza de otra persona, y comenzó el frenesí de las falsificaciones profundas.
Poco después, Deepfakes lanzó una aplicación, FakeApp, y la gente saltó sobre ella. Desde entonces se han producido todo tipo de memes de ese y otros programas, algunos divertidos, otros simplemente espeluznantes, otros peores. Incluyen la cara de Nicolas Cage en el cuerpo de Amy Adams (interpretando a Lois Lane en una película de Superman) y una gran producción de BuzzFeed con el comediante Jordan Peele, como el ex presidente Barack Obama, quien advierte sobre algunos de los usos más posiblemente siniestros de la tecnología en un video ligeramente NSFW (que termina con el Fauxbama diciendo: "¡Quédate despierto, bi $% * es!").
El último video de deepfake fue cortesía de un TikToker personificando a Tom Cruise. Tres videos son sorprendentemente reales y muestran a Cruise, entre otras cosas, golpeando una pelota de golf. Los videos fueron creados por Chris Ume , un especialista en efectos visuales de Bélgica.
La informática utilizada para crear los programas detrás de estos videos puede ser extremadamente compleja, mucho más intensa que la que se usa para los deepfakes simples. Intrincados algoritmos y términos informáticos como redes generativas adversarias (GAN) y redes neuronales profundas salpican los trabajos académicos de las técnicas de edición de video más avanzadas.
Generalmente, lo que hacen estos programas es examinar el video de un sujeto cuadro por cuadro y "aprender" el tamaño, la forma y los movimientos del sujeto para que puedan ser transferidos a otro sujeto en video. Mientras que los deepfakes se han limitado principalmente a cambiar las caras de los sujetos, los programas más avanzados pueden transferir posiciones de la cabeza en 3D completas, incluidas cosas como una inclinación de la cabeza o una ceja levantada o un par de labios fruncidos. Se han realizado algunos trabajos sobre los movimientos de todo el cuerpo.
Cuanto más detectan estos programas, más variables alimentan y "aprenden" estas redes, más eficientes, efectivos y realistas se vuelven los videos.
Más allá de los deepfakes
Es importante tener en cuenta que no todas las técnicas de edición de videos y fotos basadas en inteligencia artificial y aprendizaje automático son deepfakes. Los académicos que trabajan en el campo ven a los deepfakes como aficionados, relegados a un mero intercambio de caras.
Un grupo de la Universidad de California en Berkeley está trabajando en una técnica que pone en movimiento todo un cuerpo, un bailarín profesional, y lo cambia al cuerpo de un aficionado en video. Entonces, con un poco de magia de IA, incluso alguien con dos pies izquierdos puede al menos parecer moverse como Baryshnikov. El grupo de Berkeley detalla su trabajo en el periódico Everybody Dance Now .
La técnica no es perfecta, por supuesto. Pero esto es complicado. Incluso sacar una cara en movimiento generada por computadora es difícil. A partir de ahora, la mayoría de las caras generadas por IA, incluso en deepfakes, especialmente en deepfakes, son falsificaciones obvias. Algo, casi invariablemente, parece un poco extraño.
"Creo que una cosa son los detalles de las sombras de las caras", dice Tinghui Zhou, estudiante de posgrado en ciencias de la computación en Berkeley y uno de los autores de Everybody Dance Now. "Nosotros [los humanos] somos muy buenos para identificar si una cara es real o no - los detalles de las sombras, cómo se mueven las arrugas, cómo se mueven los ojos - todos esos tipos de detalles deben ser exactamente correctos. Creo que el sistema de aprendizaje automático en estos días todavía no es capaz de captar todos esos detalles ".
Otro nuevo sistema de manipulación de video de IA, o, como lo llaman sus arquitectos, una "reanimación fotorrealista de videos de retratos", en realidad usa un actor "fuente" que puede alterar la cara de un actor "objetivo".
Tú, la "fuente" (por ejemplo), mueves la boca de cierta manera, las computadoras mapean el movimiento, lo introducen en el programa de aprendizaje y el programa lo traduce a un video en el que Obama pronuncia tus palabras . Te ríes o levantas la ceja, y Obama también lo hace.
Un documento sobre ese proceso, conocido como Deep Video Portraits , se presentó en una conferencia de gráficos por computadora y técnicas interactivas en Vancouver a mediados de agosto de 2018, y revela un lugar para el programa: Hollywood.
"Los videos generados por computadora han sido una parte integral de las películas de largometraje durante más de 30 años. Prácticamente todas las producciones de películas de alta gama contienen un porcentaje significativo de imágenes generadas por computadora, o CGI, desde El señor de los anillos hasta Benjamin Botón ", escriben los autores . "Estos resultados son difíciles de distinguir de la realidad y, a menudo, pasa desapercibido que este contenido no es real ... pero el proceso llevó mucho tiempo y requirió expertos en el dominio. La producción de incluso un videoclip sintético corto cuesta millones en presupuesto y múltiples meses de trabajo, incluso para artistas con formación profesional, ya que tienen que crear y animar manualmente grandes cantidades de contenido 3D ".
Gracias a la IA, ahora podemos producir las mismas imágenes en mucho menos tiempo. Y más económico. Y, si no ahora, pronto, igual de convincente.
Caminando por la cuerda floja ética
El proceso de manipular un video existente, o crear un nuevo video con imágenes falsas, como advierten el comediante Peele y otros, puede ser francamente peligroso en las manos equivocadas. A algunas actrices y artistas prominentes les robaron la cara y los incluyeron en videos porno en los primeros ejemplos más inquietantes de deepfakes. Usar imágenes para, como advirtió Peele con su video de Obama, producir " noticias falsas " es una posibilidad muy real.
Muchos medios ya han tomado medidas para detener los deepfakes. Reddit, de hecho, cerró los deepfakes subReddit. Pornhub se compromete a prohibir la pornografía generada por IA. Tumblr y Twitter se encuentran entre otros sitios para prohibir los deepfakes pornográficos.
Pero estos videos pueden no ser particularmente fáciles de controlar, especialmente a medida que mejoran los programas para crearlos. Michael Zollhöfer, profesor de ciencias de la computación en Stanford y una de las mentes detrás de Deep Video Portraits, dice que aquellos en la comunidad académica son conscientes de la ética involucrada. De Zollhöfer, en un comunicado de prensa que anuncia su proyecto:
Todos los involucrados en la construcción de esta tecnología, dice Zhou, deben tomar las medidas adecuadas para asegurarse de que no se utilice incorrectamente. El desarrollo de software para detectar videos alterados o mejorados por computadora, y marcar el video con "marcas de agua" invisibles para mostrar, bajo evaluación forense, que fueron generados por computadora, será de ayuda. Nuevamente, de Deep Video Portraits:
Dice Zhou: "Creo que nosotros, como investigadores, definitivamente tenemos la responsabilidad de crear conciencia pública en términos del abuso de estas tecnologías. Pero quiero enfatizar: Hay muchos usos positivos de esta investigación. Hemos tenido solicitudes de los bailarines para que utilicen nuestra investigación para ayudarlos a bailar. Hay aspectos positivos de esta tecnología ".
Lo que nos espera
El campo continúa mejorando a medida que los programas se vuelven más sofisticados y las máquinas aprenden mejor cómo superar las fallas obvias y menos obvias en estos videos y fotos generados por computadora. A dónde puede ir, nadie lo sabe. Pero a muchos les preocupa que las mejoras en la tecnología lleguen tan lejos y tan rápido que podríamos estar entrando en una era en la que ya no podemos confiar en lo que vemos y oímos.
Y eso nos lleva a otro tipo de video falso que también podría causar grandes problemas, especialmente para las próximas elecciones presidenciales de 2020: los tontos. En mayo de 2019, por ejemplo, un video distorsionado de la presidenta Nancy Pelosi se extendió como la pólvora en las redes sociales. El video parecía mostrar que Pelosi insultó y tropezó con un discurso. En realidad, el video fue alterado digitalmente por un bloguero deportivo y "superfan de Trump" de Nueva York, quien luego lo subió a Facebook. El video fue rápidamente desacreditado, pero para entonces ya se había visto millones de veces. YouTube lo eliminó diciendo que el video violaba sus estándares. Sin embargo, Facebook lo mantuvo en el sitio, solo dijo que el video era "falso" y que trataría de limitar cuánto se podía compartir.
Si bien este video alterado de Pelosi no es tan técnico como un deepfake, Hany Farid, un experto en análisis forense digital de la Universidad de California, Berkeley, le dijo a NPR que eso es lo que lo hace aún más preocupante. Estos están etiquetados como tontos porque son más fáciles y baratos de producir que los deepfakes. Por lo general, requiere cambiar la velocidad del video o la edición básica para producir un nuevo video persuasivo.
"El tiempo corre", dijo Farid a NPR . "El video de Nancy Pelosi era un canario en una mina de carbón".
AHORA ES ATERRADOR
Tantos legisladores estadounidenses están preocupados por estos videos falsos profundos dirigidos a las elecciones presidenciales estadounidenses de 2020, que en septiembre de 2018, varios miembros del Congreso de los Estados Unidos solicitaron un informe formal sobre sus tecnologías y avances al Director de Inteligencia Nacional.
Publicado originalmente: 5 de septiembre de 2018