Microsoft estrena un arma para combatir ‘deepfakes’ en las elecciones de EE UU

Vídeo manipulado de Joe Biden que, incluso, llegó a ser compartido por Donald Trump.
Vídeo manipulado de Joe Biden que, incluso, llegó a ser compartido por Donald Trump.Agência Pública

Los próximos meses se antojan un cóctel explosivo para las noticias falsas. Sobre todo en Estados Unidos. Allí, a la tensión que genera la pandemia se le añade el horizonte electoral, que este año espera una campaña particularmente crispada y barrosa. Si las anteriores elecciones de Estados Unidos, sirvieron para poner en boca de todos el concepto de fake news, las venideras podrían popularizar el de deepfakes.

Estos vídeos, con imágenes reales, se modifican artificialmente mediante un algoritmo y suelen manipular el discurso de una persona pública. Entre los esfuerzos que las tecnológicas están haciendo para combatir la desinformación en esta coyuntura preelectoral en Estados Unidos, Microsoft ha dado un paso importante. Ha presentado una plataforma aparentemente capaz de detectar los deepfakes.

La inteligencia artificial que hay tras estos vídeos manipulados hace que sea difícil identificar su falsedad. Se consigue que un texto leído por un actor pase por unas declaraciones de Barack Obama, como ocurrió en un vídeo que trataba de concienciar sobre esta técnica. Pero también es posible cambiar el rostro del protagonista de un vídeo por el de otra persona. Así, Jim Carrey sustituye a Jack Nicholson en este deepfake de El resplandor.

La herramienta Microsoft Video Authenticator usa su propia inteligencia artificial parar analizar la veracidad de un vídeo. “Evalúa la existencia de zonas de la imagen en las que pueda existir un cambio en las texturas, zonas difuminadas por la superposición de elementos, consistencia de los bordes, alteración de los colores”, explica Alberto Pinedo, director de Tecnología de Microsoft en España. Se buscan “rastros de una modificación sobre el contenido original que normalmente escapan al ojo humano”.

En cada frame, el algoritmo de Microsoft estima una probabilidad de que las imágenes sean reales o manipuladas. La herramienta sirve también para comprobar la autenticidad de fotografías. En el caso de los vídeos, la comprobación se hace en tiempo real a lo largo de la duración del metraje.

Por ahora, Microsoft Video Authenticator estará disponible a través de la iniciativa Reality Defender 2020 (RD2020), una plataforma que reúne a entidades académicas, como la Universidad de Berkeley, y empresas de tecnología, Google, Twiter, la propia Microsoft, para combatir la desinformación. Además, la compañía colaborará con la BBC en su Project Onion, destinado a combatir las fake news de forma global y con la vista puesta en las próximas elecciones de Estados Unidos.

Cada vez más fácil hacer un deepfake pero no detectarlo

El sistema de Microsoft se ha creado gracias al empleo de dos bases de datos públicas: Face Forensic++, para entrenar el algoritmo, y DeepFake Detection Challenge Dataset, para probar su eficacia. Aunque la compañía admite que su Video Authenticator no es el arma definitiva contra los deepfakes. “Se trata de una plataforma en continua evolución y aprendizaje para mejorar su precisión. Hay que tener en cuenta que nos enfrentamos a mecanismos que cada día mejoran para crear vídeos falsos de mejor calidad”, destaca Pinedo.

El fácil acceso, desde la nube, a la tecnología deep learning (las redes neuronales necesarias para crear estas manipulaciones) permite que casi cualquiera pueda perpetrar un deepfake. En YouTube ya proliferan este tipo de vídeos. En muchas ocasiones son bromas inofensivas, simples memes en formato audiovisual, como este clip en el que Jon Nieve pide perdón por la temporada 8 de Juego de Tronos. Pero también pueden formar parte de bulos intencionados.

El origen de los deepfakes puede ser cualquiera, como apunta Pinedo, aunque subraya la incidencia de las redes sociales y las plataformas de vídeo online. Precisamente estos dos espacios han sido vehículos de difusión, en ocasiones viral, de bulos y desinformación. Un problema que con la manipulación de vídeos se complica.

Y es que detectarlos a simple vista no es sencillo. Desde el Massachusetts Institute of Technology (MIT) proponen fijarse en algunos detalles para tratar de identificar un deepfake. Se trata de descubrir irregularidades en la piel de la cara, en las mejillas y la frente, en el color y el tamaño de los labios, el corte de pelo. ¿Hay algo raro en ello? Y en el parpadeo, ¿es demasiado frecuente o apenas existe? Hay otros aspectos a los que prestar atención: si detectamos fallos evidentes, como un cuello de camisa que en el lado izquierdo es de una forma y en el derecho, de otra, deben saltar las alarmas.

Pero reconocer este tipo de detalles requiere de un examen minucioso, inviable en el día a día. Sobre todo al ritmo que se consume el contenido digital hoy. De ahí que algunas tecnológicas con peso en Internet hayan dado pasos para combatir los vídeos manipulados de forma automatizada. Google lanzó el pasado año una base de datos con 3.000 deepfakes generados con inteligencia artificial, para contribuir a la investigación en este campo. Por su parte, Facebook ha estimulado una competición para detectar deepvídeos manipulados. Precisamente la base de datos que se emplea como prueba en este concurso ha sido la que Microsoft ha empleado para testar su algoritmo.

Puedes seguir a EL PAÍS TECNOLOGÍA RETINA en Facebook, Twitter, Instagram o suscribirte aquí a nuestra Newsletter.

Compartir

Deja un comentario

A %d blogueros les gusta esto: