A partir del año 2022, la Inteligencia Artificial Generativa (IAG) se instaló en el centro de la conversación pública por su expansión, dando inicio a lo que sería su disponibilidad masiva.

A través de distintas plataformas impulsadas por Inteligencia Artificial (IA), como por ejemplo Chat GPT, MidJourney o Bard, podemos buscar información, crear contenido, imágenes, música e incluso obtener asistencia para escribir código y programar. No obstante, los usos de estas tecnologías varían y también resultan un soporte cada vez más importante para la generación de noticias falsas o fake news. Esto se debe, en parte, a la simplicidad con la que se pueden producir desde textos e imágenes, hasta audios y videos hiperrealistas.

La IAG pueden escalar notablemente la cibercriminalidad a partir la sofisticación y facilidades de uso que ofrece. Por ejemplo, perfecciona técnicas de phishing (suplantación de identidad) al automatizar los procesos de creación de mensajes, logrando textos completamente personalizados y específicos de acuerdo al objetivo del atacante. Por otro lado, el uso de inteligencia artificial también evoluciona otras técnicas de estafas, como en el vishing, a partir de la clonación de voces. En este caso, con videos y grabaciones de audio se nutre un algoritmo de IA, el cual capta distintas características de la voz (tono, timbre, acento o entonación), logrando replicar la voz original.

Los llamados deepfakes, es decir la creación de audios, imágenes o videos a partir de la manipulación de un material original, dan paso a un contenido ficticio, pero con una apariencia extremamente convincente. Más allá del uso o destino que alcancen los deepfakes, entendemos que pueden significar un desafío para la calidad democrática, en función del riesgo que representan, desde el punto de vista de la desinformación y manipulación de la opinión pública.

 

Se puede definir a los deepfakes

Ya sea que su uso esté destinado al entretenimiento, de forma recreativa o en tono humorístico, los deepfakes también pueden representar una amenaza si se utilizan para extorsionar, difamar o crear informaciones falsas. Si bien la edición de audio y video no constituye en sí mismo una novedad –podríamos citar varias producciones cinematográficas de los últimos veinte años en donde nos costaría reconocer si una escena es real, tiene efectos especiales o es completamente ficticia y computarizada–, encontramos que las tecnologías para crear deepfakes están evolucionando y son cada vez más accesibles. A esto se suma que no es necesario tener amplios conocimientos en inteligencia artificial ni edición para generar deepfakes. Por ello, este crecimiento puede convertirse en sofisticadas formas de fraude y desinformación.

¿Cómo podríamos definir a los deepfakes? El término combina, del inglés, las palabras deep learning y fake. El deep learning o aprendizaje profundo, constituye una rama del aprendizaje automático, mientras que el término fake (falso), refiere a contenido falso como pueden ser las fake news.

Podríamos definir de manera sencilla los deepfakes como vídeos manipulados para hacer creer a los usuarios que los ven que una determinada persona, tanto si es anónima como si es personaje público, realiza declaraciones o acciones que nunca ocurrieron. Para la creación de dichos vídeos, se utilizan herramientas o programas dotados de tecnología de inteligencia artificial que permiten el intercambio de rostros en imágenes y la modificación de la voz (INCIBE, 2020, párr. 3) [1]

Es posible distinguir dos tipos de deepfakes, el deepface y el deepvoice. En el primer caso, se trabaja con la superposición de rostros, es decir que se cambia la cara de una persona por otra, logrando incluso adaptar los gestos del rostro original en el nuevo. En el segundo caso, a partir de fragmentos de audio o grabaciones, se puede clonar una voz y generar, por ejemplo, un nuevo discurso.

Desde un aspecto más técnico, este tipo de montajes funcionan a partir de Redes Generativas Adversas (GAN por sus siglas en ingles).

Dos redes neuronales compiten para crear fotografías o videos que parecen reales. Las GAN constan de un generador, que crea un nuevo conjunto de datos, como un vídeo falso, y un discriminador, que utiliza un algoritmo ML para sintetizar y comparar datos del vídeo real. El generador sigue intentando sintetizar el vídeo falso con el antiguo hasta que el discriminador no puede decir que los datos son nuevos (Horowitz, 2019, párr. 2) [2]

Algunos de los riesgos más significativos con el uso malicioso de este tipo de tecnologías refiere a la creación de contenido pornográfico artificial. Por ejemplo, la exposición que sufrió la cantante Taylor Swift a principios de este año, en donde circularon por redes sociales imágenes falsas de la artista, con contenido sexual explícito. En estos casos de pornografía artificial, se utilizan imágenes sin el consentimiento de la víctima para crear contenido que luego tiende a ser viralizado.

Otros usos de estas tecnologías tienen impacto directo en términos de desinformación y fake news. Encontramos, por ejemplo, las imágenes del ex presidente de Estados Unidos, Donald Trump, siendo arrestado o al Papa Francisco vistiendo una campera inflable estilo puffer.

 

Tensar nuestras propias creencias

Probablemente estemos frente al inicio de una época en la cual comencemos a tensar nuestras propias creencias, intentando distinguir si lo que vemos es real o no. La circulación de discursos e imágenes en tiempos de la inteligencia artificial, nos hace repensar el famoso dicho “ver para creer” y replantearnos lo verosímil. Además, tendremos por delante una discusión normativa para intentar encuadrar este tipo de fenómenos como los deepfakes, ya sea que se aborden, por ejemplo, como suplantación o usurpación de identidad.

Finalmente, teniendo en cuenta el riesgo para la calidad democrática que representa determinados usos de estas tecnologías, hay un desafío adicional respecto a la atribución de responsabilidades. En cuanto al combate de la desinformación o las fake news, habitualmente la responsabilidad cae al nivel de los usuarios, quienes deben seguir una serie de recomendaciones para distinguir información o contenido verdadero. Sin embargo, con la evolución de las IA y sus facilidades de acceso, resulta fundamental generar entornos de uso seguros y sistemas de educación digital apropiados –como propone el Laboratorio de Historia Global y Ciberespacio de la Universidad de Buenos Aires–, a fin de reducir, desde el punto de origen, los riesgos vinculados con la desinformación.

 

 

 

Lista de Referencias Bibliográficas

[1] Instituto Nacional de Ciberseguridad (01 de abril de 2020). Deepfakes, ¿cómo se aprovechan de esta tecnología para engañarnos? [Entrada de blog]. https://www.incibe.es/ciudadania/blog/deepfakes-como-se-aprovechan-de-esta-tecnologia-para-enganarnos
[2] Horowitz, B. (13 de mayo de 2019). AI and Machine Learning Exploit, Deepfakes, Now Harder to Detect. https://www.pcmag.com/news/ai-and-machine-learning-exploit-deepfakes-now-harder-to-detect

 Bibliografía

Costa et al. (2023). Desafíos e impactos de la inteligencia artificial. Marcos normativos, riesgos y retos para la calidad democrática en la Argentina.


Ignacio Capuya Macchi. Docente, investigador, miembro activo del Laboratorio de Historia Global y Ciberespacio de la Universidad de Buenos Aires.