Entrevistas

¿Estamos
_
preparados
_
para
_
los
_
deepfakes?

Ciberseguridad  ·  Inteligencia artificial  ·  Soluciones Cloud

El ingeniero informático e investigador en Vicomtech, Unai Elordi, y la CEO y cofundadora de Maldita.es, Clara Jiménez, reflexionan sobre las oportunidades y riesgos de la generación de imágenes sintéticas a través de inteligencia artificial. 

Los sistemas de inteligencia artificial que permiten generar voces e imágenes sintéticas han avanzado notablemente y se han perfeccionado en los últimos años. Además, estas soluciones son cada vez más accesibles. La cuestión es que con pocos recursos se puede falsificar la voz o el rostro de una persona, pero también generar personas que no existen. Se conocen como deepfakes y pueden ser una vertiente más de la desinformación. Los bulos y las noticias falsas “contaminan la forma de relacionarnos” y “afectan a nuestra predisposición a la comunicación y la escucha”, según el Barómetro de Maldita.es y Oxfam Intermón. Este informe revela que el 54% de la población dice que hay tanta desinformación que ya no se cree nada.

¿Qué oportunidades y riesgos presenta la generación de imágenes y voces con técnicas de deep learning? ¿Cómo se puede garantizar la autenticidad y originalidad de un vídeo? ¿Son suficientemente transparentes los modelos de inteligencia artificial? ¿Es necesaria una regulación? El ingeniero informático e investigador de IA y visión artificial de Vicomtech, Unai Elordi, y la CEO y cofundadora de Maldita.es, Clara Jiménez, charlan y reflexionan sobre las posibles aplicaciones y los límites de la tecnología en la creación de contenido falso en el episodio del podcast mensual Cuidado con las macros ocultas de Cuatroochenta ¿Hasta dónde te puedes fiar de lo que ves?.

“Dentro de la inteligencia artificial tenemos millones de imágenes y necesitamos tener el permiso de todas esas personas para ser utilizadas (…). Si tuviéramos la capacidad de generar sintéticamente personas que no existen, estaríamos creando sistemas de inteligencia artificial sin que esas personas se expusieran”. 

Unai Elordi, ingeniero informático e investigador de IA y visión artificial en Vicomtech

¿Cómo se puede garantizar la autenticidad de una imagen?

“Las empresas se esfuerzan en defenderse de los ataques ransomware, pero no hacen nada para prepararse ante una avalancha inminente de contenido sintético” advertía la consultora Gartner en junio de 2021. Para Unai Elordi es clave tener en cuenta la intencionalidad del contenido sintético y reconoce que uno de los principales riesgos es su aplicación en técnicas de ingeniería social para engañar a la población. En este sentido, cree que la tecnología blockchain puede funcionar como un notario y certificar la trazabilidad y, por tanto, la originalidad de una imagen. La periodista Clara Jiménez Cruz propone como “primera medida de autocontrol” incluir en las imágenes digitales firmas que permitan “distinguir el grano de la paja”.

¿Es necesaria una regulación?

"Un modelo neuronal no sabe lo que es la transparencia” defiende Elordi quien asegura que las soluciones de IA simplemente “predicen cosas” a partir de un aprendizaje. Pero para Jiménez Cruz las compañías que desarrollan algoritmos y los datos que gestionan sí deberían ser más transparentes teniendo en cuenta que toman decisiones. En este sentido y aunque con diferentes matices, tanto el investigador como la periodista coinciden en que sería necesaria una regulación. 

“Hay una parte importante de nuestros legisladores que no entienden bien el problema, que no lo entienden del todo, que a veces lo entienden más como ciberguerra que como un problema social y creo que las dos cosas no están reñidas”.

Clara Jiménez Cruz, CEO y cofundadora de Maldita.es