opinión*
‘Deepfake’: Si no lo veo, no lo creo (Artículo)
Overview por Antoni Gutiérrez-Rubí
(Foto: https://www.technologyreview.com/)

Por Antoni Gutiérrez-Rubí, asesor de comunicación
@antonigr

«Un pueblo que ya no puede creer en nada, no puede decidir por sí mismo. Está privado no solo de su capacidad de actuar sino también de su capacidad de pensar y juzgar. Y con un pueblo así puedes hacer lo que quieras.» Hannah Arendt

El término ‘deepfake’ hace referencia al uso de Inteligencia Artificial (IA) para falsear vídeos o audios sustituyendo a los protagonistas. El origen de la palabra es la mezcla de Deep Learning y Fake News. Por lo tanto, hablamos del uso de una técnica de IA aplicada a la generación de contenidos, sobre todo, en formato vídeo y audio.

La tecnología ha evolucionado tanto que podemos encontrar herramientas como la creada por SenseTime, el gigante tecnológico de Hong Kong, que detecta emociones en el audio y las asocia a expresiones faciales que representa en un vídeo, con lo que se le puede dar una capa de realismo muy grande a este tipo de contenidos.

El caso es que ya se ha utilizado esta técnica para finalizar películas como Rogue One o Han Solo a Star Wars Story. Aunque, como explica Moisés Naím en su artículo Todo empezó con la pornografía, y mientras algunos se apresuran a prohibir este tipo de vídeos, ya hay empresas que se dedican a comercializarlos

El principal peligro con el que nos encontramos con este tipo de contenidos es que ya no todo lo que vemos u oímos es necesariamente cierto. Podemos ser engañados fácilmente, ya que la realidad de lo que vemos es la que creemos.

Uno de los usos más habituales en la actualidad para intentar sacar provecho a esta técnica, además de la generación de contenidos falsos para generar desinformación, es la estafa en grandes corporaciones. La suplantación de directivos, sobre todo a través de audio, para forzar a realizar transferencias de dinero está a la orden del día. Por este motivo, la actualización de sistemas de seguridad para intentar detectar estos ataques se somete a grandes dosis de ingenio. Los expertos creen que se popularizarán durante 2020

En el ámbito corporativo, no solo es la seguridad, también es la reputación de las empresas la que puede sufrir un duro golpe debido a esta tecnología. La suplantación de un directivo/a, o de una persona de referencia hablando mal de una marca puede generar un impacto difícilmente subsanable. Las crisis generadas requerirán grandes esfuerzos humanos y económicos.

La arena política es otro de los grandes ámbitos donde, por supuesto, se ha utilizado y se utiliza. Jordan Peele, director de Get Out, hizo un vídeo con esta técnica para demostrar su potencial. Emuló a Obama y aprovechó para llamar «dipshit» a Donald Trump. Este es el principal ejemplo que podemos encontrar al hablar de ‘deepfakes’ en política. Aunque existen otros, más divertidos y más recientes, como los que ha publicado la cuenta de Twitter #FaceToFake poniendo como protagonistas a los líderes de los principales partidos españoles en la intro del Equipo A, o en la escena de la parte contratante de Una noche en la ópera, de los hermanos Marx.

También, la emulación de situaciones históricas ha conducido a recrear el discurso que podría haber hecho Nixon ante una misión Apolo fallida. Un proyecto artístico que se presentará en el festival de cine de Ámsterdan en 2020. Y, cómo no, proponer mediante un ‘deepfake’ que protagonistas de la talla de Corbyn y Johnson se defiendan mutuamente para definir el papel del Reino Unido ante el Brexit, una propuesta llevada a cabo por Future Advocacy.

Pero no todo es negativo en el uso de los deepfakes. Manoj Tiwari, India, se alió con Ideaz Factory para crear «campañas positivas» utilizando deepfakes y poder hablar a sus electores en idiomas que no conoce.

Más allá de los ‘deepfakes’

Un proyecto interesante relacionado con los ‘deepfakes’ es el que ha desarrollado un ex ingeniero de Uber, utilizando código publicado por Nvidia y, como tecnología base, Redes Neuronales Antagónicas (GAN). Ha puesto en marcha una web en la que, cada vez que se recarga, aparece una persona totalmente «generada» por esta Inteligencia Artificial: «This person does not exist».

El futuro de una tecnología de estas características ofrece muchas posibilidades. Una de ellas es que puede complementar los’ deepfakes’ para dar más coherencia de contexto. Ya no sería sólo la inclusión de un famoso/a en un vídeo y hacerle decir o hacer cosas que no son reales, sino que, además, se podría generar toda una escena con personas inventadas, sin ningún tipo de problema.

En la línea de esta noticia, también ha aparecido un generador de textos de OpenIA, del cual no han liberado el modelo completo, al valorar el peligro que podría suponer una IA de estas características. 

Este modelo de generar texto es capaz de seguir escribiendo un artículo con sólo dos frases de inicio. Para ello, han seguido un modelo basado en semántica distributiva. Por lo que medios de difusión de fake news encontrarían en este tipo de software un verdadero filón de generación de contenidos.

Podemos llegar, por lo tanto, a verdaderas realidades virtuales materializadas fuera de Internet, en escenas, imágenes e incluso textos.

Otro mal uso que podrían tener estas tecnologías combinadas sería la puesta en marcha de redes de perfiles falsos con una identidad muy difícil de verificar. Ahora mismo, uno de los puntos débiles de los perfiles falsos es que, habitualmente, las fotos utilizadas se toman de perfiles verdaderos o incluso de imágenes publicadas en Internet en multitud de plataformas. Ahora no hará falta ni eso. Si además le unimos una generación de texto automatizada, capaz de engañar a cualquiera, será muy complicado identificar dichos perfiles.

Los ‘deepfakes’, una cuestión geoestratégica

Una reflexión que nos queda por hacer es si las medidas que gobiernos y plataformas están tomando para evitar las fake news y, más concretamente, los ‘deepfakes’ serán suficientes. Parece que sólo con herramientas de acreditación podremos tener fiabilidad sobre aquello que estamos viendo, oyendo o leyendo.

Ya hay quienes avisan de que puede suponer un peligro para la democracia y la seguridad nacional, tal y como podemos leer en el paper de Robert Chesney y Danielle  Keats Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security. Otra interesante lectura es Artificial Intelligence and International Security: The Long View, de Amandeep Singh. 

La tendencia es hacer un mayor uso de este tipo de nuevas armas con las que la manipulación digital de la opinión pública puede llegar a desestabilizar un sistema democrático. Cada vez más, la capacidad de adaptación para defenderse en tiempo real de este tipo de ataques definirá la fortaleza estratégica de los países.

El caso es que gobiernos como el de California ya han legislado para evitar que haya total impunidad a la hora de publicar este tipo de contenidos, sobre todo en época electoral. China tampoco ha querido quedarse atrás y la publicación de estos contenidos, sin una advertencia será perseguido como una ofensa criminal.

La lucha de las plataformas contra los ‘deepfakes’

Como sucede en otros campos tecnológicos, a la misma velocidad que avanzan los ‘deepfakes’, también avanza su detección, basándose en los mismos modelos de aprendizaje profundo. Pero el papel de las propias plataformas va más allá. Enmarcan su actuación dentro de su lucha contra las fake news y la desinformación. Y esta lucha está estrechamente ligada al cierre de cuentas, aunque se está abriendo paso otro método para hacer frente a este problema. 

Los acuerdos de Facebook con organizaciones de fact checking en todo el mundo están facilitando a sus propios «censores» que contenidos pensados para desinformar puedan ser etiquetados como tales. El objetivo es poner sobre aviso a los usuarios de que hay algún tipo de problema en esa publicación. Por ejemplo, en España, Facebook ha llegado a sendos acuerdos con Newtral y Maldita para que lleven a cabo tareas de fact checking. Y esta actividad se produce por todo el mundo. En 2018, la plataforma cuadriplicaba sus acuerdos con organizaciones de fact checking.

Un ejemplo: a mediados de mayo de 2019 se empezó a distribuir un vídeo de Nancy Pelosi falso (un ‘deepfake’) y era el propio Facebook, cuando un usuario intentaba compartirlo, el que le avisaba del problema existente con dicho contenido. En el vídeo, Pelosi, aparentemente, aparecía borracha. El efecto lo habían conseguido reduciendo la velocidad a un 75% de lo normal, además de otras variaciones. Una de las versiones se visionó el mismo día más de dos millones de veces. Facebook recibió muchas críticas por el hecho de haber marcado el contenido y no haberlo eliminado directamente. En esta misma línea, Twitter tuvo que intervenir y etiquetar el vídeo como contenido manipulado a un RT que hizo el presidente Trump de un vídeo sobre Joe Biden. En este caso se vio obligada a actuar.

El problema es la gran cantidad de contenidos falsos o que propagan desinformación. A pesar de todos estos acuerdos y del personal que Facebook destina a este tema, quedan contenidos sin marcar. Y este hecho provoca un efecto no deseado.

Un estudio llevado a cabo por Yale ha descubierto que, a pesar de los beneficios de estas acciones, los contenidos que no se etiquetan como controvertidos o falsos aún tienen más aceptación. Esto se debe precisamente a que si no está etiquetado, los usuarios piensan que deber ser cierto. Los principales grupos de usuarios que entran en esta deriva son aquellos que dan apoyo a Trump y los menores de 26.

De todos modos, parece que las acciones que se están llevando a cabo, tanto por parte de las plataformas como de las organizaciones de fact checking, dan sus resultados. Pasadas las elecciones europeas, se ha comprobado que no ha habido un exceso de fake news o de desinformación. Por un lado, se argumenta que la propia complejidad territorial ha favorecido este punto, ya que se han detectado campañas más a nivel local, aunque estas se han identificado y atajado de manera temprana.

También podemos encontrar otras estrategias para combatir la desinformación y las noticias falsas. La plataforma Xnet presentaba su informe #FakeYou en el que señala que la mejor manera de hacer frente a este problema es ir a las fuentes de financiación y a los modelos de negocio que lo sustentan. Es decir, se necesita una regulación, no que limite la libertad de expresión, sino que realmente incida en quién saca provecho de la situación, tanto política como económicamente.

La Inteligencia Artificial también empieza a tomar protagonismo. Twitter ha adquirido la startup londinense Fabula AI para incorporar sus sistemas de detección de distribución de noticias falsas en su ML (Machine Learning). Y no solo eso, también ha compartido el borrador de su política para combatir los ‘deepfakes’ con los usuarios para que les ayuden a acabar de definirla. El caso es que las Big Tech se están poniendo manos a la obra para detectar este tipo de contenidos antes que sea imposible hacerlo.

Pero a pesar de los esfuerzos en el ámbito técnico, también las decisiones que toman sobre lo que es o no un deepfake abren la puerta a determinados contenidos. Facebook considera que son solo los vídeos manipulados por IA, por lo tanto aquellos vídeos falsos, editados para «engañar», no los va a prohibir. Esto lo que nos demuestra es que, además de un uso no adecuado de la Inteligencia Artificial, también hay un problema con la moderación de contenidos.

Los deepfakes y su impacto en la sociedad

Los deepfakes no generan solo desinformación y, en consecuencia, confunden e influyen en la percepción que se tiene de la sociedad. En un paper publicado por Cristian Vaccari y Andrew Chadwick de la Universidad de Loughborough, en Reino Unido, sobre el impacto de los deepfakes en la comunicación política y en la sociedad se apuntan unas interesantes conclusiones:

  • Los deepfakes no necesariamente engañan a las personas, pero sí que generan en ellos incertidumbre.
  • Esta incertidumbre puede desembocar en un clima de desconfianza que afecte a la sociedad, provocando que esta sea menos cooperativa, sobre todo en entornos de polarización política.
  • Si la desconfianza aumenta en los medios y en las noticias, se instaura un «todo vale» y, en consecuencia, empieza a sopesarse la posibilidad de necesitar políticas más restrictivas en cuanto a la libertad de expresión con el objetivo de acabar con el problema.
  • Los métodos de fact-checking se encuentran en dificultades, tanto por que, en principio para la comprobación, parten de la base que la declaración, verdadera o falsa, la ha hecho una persona real. Y segundo, porque las técnicas usadas cada vez hacen más difícil poder detectar el deepfake.
  • También es posible que el uso de deepfakes no genere cinismo, sino escepticismo. Si es así, que las personas se cuestionen lo que ven y que cuando comprueben que es cierto lo valoren más, es un signo de una cultura cívica online crítica, pero saludable.
  • Por lo tanto, se deberá determinar cuál es el efecto que los deepfakes generan a largo plazo: si cinismo o escepticismo.
  • Las plataformas deberían trabajar para que sus desarrollos en IA, aparte de poder mejorar un deepfake, también sirvan para poder identificarlos. Que los políticos y gobiernos los utilicen de manera responsable y que la ciudadanía tenga una posición crítica hacía todo lo que ve.

Antoni Gutiérrez-Rubí

Asesor en comunicación.

*La opinión aquí vertida es responsabilidad de quien firma y no necesariamente representa la postura editorial de Aristegui Noticias.


Temas relacionados:
Estados Unidos
Sociedad
Tecnología
Escribe un comentario

Nota: Los comentarios aquí publicados fueron enviados por usuarios de Aristeguinoticias.com y han sido editados en orden de llegada. Invitamos a los usuarios a aprovechar este espacio de opinión con responsabilidad, sin ofensas, vulgaridad o difamación. Cualquier comentario que no cumpla con estas características, será removido.

Si encuentras algún contenido o comentario que no cumpla con los requisitos mencionados, escríbenos a [email protected]