Deep fakes y otras amenazas contra la verdad
¿Sabes qué es un deepfake? Esta tecnología, que puede ser divertida, conlleva riesgos que analizaremos en este artículo.
Disponible en:
Por Shasha Muñoz Vergara. Publicado: julio de 2021
Tom Cruise golpea con su palo de golf una pelota fuera de escena antes de mirar hacia la cámara y decir: “Si les gusta lo que ven, esperen a ver lo que viene pronto”. Este video se hizo viral en TikTok en febrero y se trata de un deepfake.
Un deepfake es cualquier imagen, vídeo o contenido de audio hiperrealista sintetizado por inteligencia artificial (IA) que representa falsamente a individuos diciendo o haciendo algo, y conlleva una serie de riesgos si no se usa éticamente, como puedes comprobar en este artículo de The Defense Post. Te mostraremos algunos ejemplos de buenas y malas prácticas en el uso de esta tecnología.
¿Qué pasa si un deepfake se usa con malas intenciones?
Las implicaciones son muchas, en especial cuando el video no es humorístico, pues permite caer en la suplantación de identidad, difusión de contenido falso, y en casos extremos, incitar el miedo dentro de las democracias y distorsionar la realidad de las audiencias. Cuando esto ocurre, la amenaza que representa esta tecnología para el periodismo atenta contra la ética y transparencia que la profesión alude.
Antes del deepfake estaban las voces sintéticas, útiles y cotidianas, que se usan en las aplicaciones que nos dan direcciones, nos guían a través de llamadas telefónicas de día y transmiten las noticias en altavoces inteligentes por la noche. A medida que la tecnología es utilizada para hacerlas mejorar, estas voces se están volviendo cada vez más humanas y eso puede dar lugar a malos usos. Esta es la última frontera en el discurso sintético: replicar no sólo lo que decimos sino cómo lo decimos, como propone este artículo de Scientific American.
El término ‘deepfakes’ se hizo conocido por primera vez en 2017, cuando un usuario de Reddit, que tenía el mismo nombre, comenzó a publicar videos pornográficos alterados digitalmente en los foros del sitio web. Estos fueron manipulados para que los rostros de artistas fueran reemplazados por los de otras personas, típicamente celebridades. Reddit pronto se convirtió en un punto focal para el intercambio de videos porno adulterados, lo que llevó al medio tecnológico Motherboard a publicar un titular en 2017 que Fake Porn it’s Here and We’re All F**ked.
Debemos entender la gravedad de esta tendencia: Las fotografías de las víctimas - abrumadoramente mujeres- se editan en películas sexuales. Imagina que tu cara pueda ser una de esas. Para cuando se demuestre que el video es falso, millones de personas ya lo habrán visto, algunos seguirán creyendo que es real. Este es el caso de Helen Mort, una británica que ha llegado al punto de pedir el cambio de las leyes británicas para que la creación y distribución de deepfakes sea un delito.
Otro ejemplo evidente de los riesgos de esta tecnología fue lo que sucedió en Holanda hace unas semanas. Varios diputados holandeses fueron manipulados en una videoconferencia a través de un deepfake que supuestamente representaba a Leonid Volkov, un estrecho colaborador del opositor ruso Alexéi Navalny. Según los diputados, la sospecha comenzó cuando la comisión parlamentaria permanente de Asuntos Exteriores recordó que Volkov estaba en Vilna, capital lituana y la conversación se tornó extraña.
El Centro de Ética e Innovación de Datos del Reino Unido produjo un informe sobre deepfakes en 2019 que detalla las amenazas sociales que acechan dentro de la tecnología. Este sigue siendo el único esfuerzo serio de un gobierno para comprender los deepfakes, pero se ha perdido en los espacios políticos y en la era de la hiperinformación. Es lo que sucede con los casos de este tipo, las instituciones crean leyes tiempo después del delito, mas el daño queda ahí.
Otro usos de los deepfakes
La suplantación de identidad no es nada nuevo, e incluso, ha sido utilizada para llevar a cabo proyectos interesantes, por ejemplo, en este podcast sobre cómo la inteligencia artificial recreó la voz del dictador español Franco. De hecho, podemos oír al dictador cantando la Macarena.
Otro caso fue un anuncio de televisión de la cervecera Cruzcampo para su campaña Con mucho acento, que se hizo utilizando un deepfake de la fallecida cantante española Lola Flores, mediante vídeo editado y sintentizadores de voz. Esta rama de las deepfakes, los sintetizadores de voz, implican la creación de un modelo de la voz de alguien, que puede leer el texto de la misma manera, la entonación y la cadencia como la persona objetivo.
Puedes ver cómo hicieron el anuncio aquí. Según el periodico El País, la campaña estuvo autorizada y asesorada por las hijas de la reconocida artista, Lola y Rosario Flores.
Algunos productos de síntesis de voz, como Modulate.ai, permiten a los usuarios elegir una voz con cualquier edad y género, en lugar de emular un objetivo específico.
Como periodista ¿Qué puedo hacer?
Cuando la inteligencia artificial está siendo utilizada para delinquir, es necesario hoy más que nunca la labor de verificación de datos, de audios, de videos y de otras informaciones, cuyo objetivo sea suplantar, desinformar y difundir contenido calumnioso.
Las redes sociales hoy son un nido de fake news, por lo que como periodistas tenemos dos roles principales. El primero, educar y concientizar sobre los peligros de las personas malintencionadas al compartir información falsa con la ayuda de estas tecnologías de inteligencia artificial. El segundo, verificar todo. La Sociedad de Periodistas Profesionales tiene un Código Ético expuesto en su documento homónimo, en el que expone que un periodista debe: “Tomar responsabilidad por la precisión de su trabajo; Verificar toda la información antes de distribuirla; Usar fuentes originales siempre y cuando sea posible”.
Si te interesa la inteligencia artificial y sus buenos usos mira esta lista de las 10 mejores iniciativas de inteligencia artificial de la revista Compromiso Empresarial. Además te invitamos a revisar las de Datasketch para verificar y visualizar datos, e infórmate sobre las leyes que regulan los datos aquí.