¿Cómo darán forma los “deepfakes” a lo que creemos sobre el mundo?

El uso de la tecnología deepfake para manipular video y audio con fines maliciosos ya sea para difamar políticos, famosos, o periodistas, o para avivar la violencia, se podría convertir en una amenaza real debido al hecho de que estas tecnologías están al alcance de todas aquellas personas que le muestran interés.

Fotografía hecha por Elijah O'Donnell a través de Unsplash

Fotografía hecha por Elijah O’Donnell a través de Unsplash

Como seres humanos, tenemos una reacción visceral al audio y al video. Cuando nos enfrentamos a información de este tipo tenemos la tendencia de creernos de que lo que estamos viendo o escuchando debe ser verdad. Por otro lado, también nos gusta todo lo salaz y lo provocativo y tendemos a compartir información de naturaleza negativa y novedosa. Investigadores descubrieron que los bulos se propagan más rápido que las historias verdaderas. Las redes sociales hacen que este tipo de información se comparta a gran velocidad, dejando a los perjudicados con poca o ninguna defensa.

Dado lo anterior, es una buena noticia que todavía es muy difícil crear un buen clip de video o de audio falso. No solo se requiere conocimientos técnicos considerables, también se debe tener ciertos recursos económicos ya que el proceso de fabricación es costoso. Una manipulación de audio de unas frases ya puede costar alrededor de los 50.000€ porque el coste de las computadoras para hacer los cálculos que requieren este tipo de modelos es significativo). Por lo tanto, de momento no tenemos que preocuparnos de que cualquiera pueda hacer una deepfake convincente y “real”.

Los deepfake bien elaborados, no obstante, podrían socavar la confianza y causar una sociedad de confianza cero en la que los ciudadanos no pueden o no se molesten en distinguir noticias verdaderas de bulos. En los últimos años ha ocurrido ya que verdades incómodas incitan a funcionarios públicos a categorizar estos hechos como falsas, como ocurrió en 2018 cuando el ministro de comunicación de Camerún descartó como noticia falsa un video que según Amnestía Internacional muestra a soldados del país ejecutando a civiles. Otro ejemplo comúnmente citado de de tal caso es el de las elecciones presidenciales de 2016, cuando la campaña de Trump casi se descarriló después de una publicación del Washington Post con un video en la que se jactaba de agarrar los genitales de las mujeres. A pesar de que Trump se disculpó públicamente por el video, dejó en claro que no estaba seguro de la autenticidad del video, insinuando que posiblemente podría haber sido manipulado.

La tecnología también podría causar problemas a los tribunales, por ejemplo, en las batallas por la custodia de los niños y los tribunales de empleo, donde los videos falsos o las grabaciones de audio podrían ingresarse como evidencia. Por último, a nivel personal también, este tipo de videos podría presentar riesgos de seguridad. Hoy en día, los datos biométricos o de voz se utilizan para desbloquear teléfonos celulares, computadoras y otros dispositivos que podrían ser fácilmente pirateados por tecnologías de AI. Si las voces y el video pueden manipularse fácilmente, la posibilidad de estafas es inminente.

¿Qué harías tú si recibieras una videollamada de un familiar o amigo cercano pidiéndote que le hicieras una transferencia de algo de dinero para una situación urgente?

Videollamada. Fotografía hecha por Tim Gouw a través de Unsplash.

Videollamada. Fotografía hecha por Tim Gouw a través de Unsplash.

Los deepfakes se convertirán en los próximos años en el desafío de los legisladores. Desde un punto de vista de seguridad jurídica, son muchas las normas que contemplan una sanción contra el supuesto de la falsificación y ya hay varios países como por ejemplo los Estados Unidos que están implementando nuevas legislaciones concretas para prohibir el mal uso de la tecnología deepfake. No obstante, se trata de una problemática compleja por el hecho de que los avances en la inteligencia artificial se desarrollan tan rápido que realmente será muy difícil detectar las falsificaciones, por lo que la tecnología tendrá que ser controlada no solo a través de la legislación a nivel mundial, sino también a nivel tecnológico. En la actualidad ya se está estudiando combatir la inteligencia artificial de los deepfakes con otra inteligencia artificial capaz de detectaros, y así frenarlos.

Deepfake Detection Challenge

Imágen elaborado por Deepfake Detection Challenge

Uno de los iniciativos más conocidos es el “Deepfake Detection Challenge
desarrollado por Facebook, Microsoft y Amazon y con una inversión de más de 10 milliones de dólares. Este proyecto invita a personas de todo el mundo a crear nuevas tecnologías innovadoras que pueden ayudar a detectar las falsificaciones profundas y los medios manipulados y se basa en la premisa de que el mal uso de deepfakes solo se puede combatir como un esfuerzo grupal y continúo.

Los deepfakes tendrán un inmenso impacto en la sociedad y además a varios niveles. Yo no estaremos ante una sociedad en la que nos podemos guiar por el famoso dicho “ver para creer”, sino que nos tendremos que educar para saber distinguir las verdades de los bulos.

 

Bibliografía

Amnesty International. (n.d.). Ever wonder how Amnesty investigates video evidence of war crimes and other atrocities? Retrieved May 3, 2020, from www.amnesty.org website: https://www.amnesty.org/en/latest/news/2018/09/digitally-dissecting-atrocities-amnesty-internationals-open-source-investigations/

Citron, D. (n.d.). Transcript of “How deepfakes undermine truth and threaten democracy.” Retrieved May 3, 2020, from www.ted.com website: https://www.ted.com/talks/danielle_citron_how_deepfakes_undermine_truth_and_threaten_democracy/transcript

ESADE. (n.d.). Los “deepfakes” como nuevo desafío del legislador: ¿puedo creer en lo que veo y oigo? I Esade – Do Better. Retrieved May 3, 2020, from dobetter.esade.edu website: https://dobetter.esade.edu/es/deepfakes

Fahrenthold, D. A. (2016, October 8). Trump recorded having extremely lewd conversation about women in 2005. Washington Post. Retrieved from https://www.washingtonpost.com/politics/trump-recorded-having-extremely-lewd-conversation-about-women-in-2005/2016/10/07/3b9ce776-8cb4-11e6-bf8a-3d26847eeed4_story.html?utm_term=.cf421902ea65

Join the Deepfake Detection Challenge (DFDC). (n.d.). Retrieved May 3, 2020, from deepfakedetectionchallenge.ai website: https://deepfakedetectionchallenge.ai

Macmillan Publishers Limited, part of Springer Nature. “‘News’ Spreads Faster and More Widely When It’s False.” Nature.Com, 8 Mar. 2018, www.nature.com/articles/d41586-018-02934-x.

Mohamed, S., & Tokmetzis, D. (2020, March 26). VIDEO: JE GELOOFT JE OGEN NIET! (En da’s maar goed ook). Retrieved May 3, 2020, from De Correspondent website: https://decorrespondent.nl/11038/video-je-gelooft-je-ogen-niet-en-das-maar-goed-ook/5138723746948-a0c907ca