Artículos

¿Cómo
_
defenderse
_
de
_
los
_
nuevos
_
ciberataques
_
con
_
vídeos
_
y
_
audios
_
falsos?

Ciberseguridad  ·  Podcast

El perfeccionamiento de las técnicas de manipulación y generación de audios e imágenes a través de la inteligencia artificial suponen un nuevo riesgo de seguridad. El podcast Cuidado con las macros ocultas de Cuatroochenta pone el foco en cómo afrontar la desinformación y las deepfakes.

“Luís, necesito que vengas a la oficina ahora mismo, mira Twitter, tenemos un problema muy grande”. Este es el mensaje que le envió el CEO de una empresa de refrescos a su director de marketing tras descubrir que circulaba por la red un vídeo, en que supuestamente aparecía él hablando mal del producto y criticando a los consumidores. Un ciberdelincuente había elaborado un vídeo falso utilizando su cara y su voz para dañar la reputación de la compañía. Es un caso que dio a conocer hace unos meses el Instituto Nacional de Ciberseguridad de España, INCIBE para alertar de las consecuencias de lo que se conoce como deepfake.

Los deepfakes y deepvoices utilizan técnicas de deep learning para crear vídeos y audios falsos de personas que aparentemente son reales.

No solo se conocen casos de uso ilícito o estafas a través de imágenes hiperrealistas, sino también de deepvoice, voces clonadas a partir de fragmentos de voz de una persona. El uso de este tipo de tecnologías, junto a la desinformación de las fake news, centran el nuevo episodio del podcast de Cuatroochenta Cuidado con las macros ocultas titulado “¿Hasta dónde te puedes fiar de lo que ves?”.

Uso de deepfakes para robar dinero o datos valiosos

Los ciberdelincuentes están utilizando inteligencia artificial para hacerse pasar por alguien en una llamada de teléfono o en un mensaje de voz. Esto es, precisamente, lo que consiguieron unos ciberdelincuentes en marzo de 2019 usando software de generación de voces. Según The Wall Street Journal, lograron robar 220.000 euros haciéndose pasar por el director ejecutivo de una empresa de energía de Alemania.

Más recientemente, unos hackers usaron el mismo tipo de solución para replicar la voz del responsable de una compañía. Gracias a ella, solicitaron al director de un banco de Hong Kong una transferencia de 35 millones de dólares, según publicó la revista Forbes que tuvo acceso a un documento judicial de la investigación.

Sin llegar a esa sofisticación en el uso de la tecnología para clonar voces, en España se han detectado también llamadas fraudulentas suplantando servicios de atención al cliente de bancos y proveedores de gas y electricidad en las que piden información sobre la firma digital o datos personales. Este tipo de fraude se conoce como vishing y está basado en la suplantación de identidad.

Informe de tendencias en ciberseguridad 2024

Descargar

Ganarse la confianza de una persona y conseguir, bajo el engaño y la manipulación, que haga algo o facilite datos e información es la base de la ingeniería social. Los delincuentes están aprovechando la sofisticación y acceso a las tecnologías de generación de imágenes y audio para aplicarlas en casos de phishing o smishing. Para el ingeniero informático e investigador de AI y Visual Computer en Vicomtech, Unai Elordi, detrás de todo esto “falta mucha legislación y privacidad de datos”.

«Los que quieren hacer mucho daño van a tener los recursos para darle realismo a una imagen. (…) Cuanto más realismo le pongas es más fácil que caiga en la trampa»

Unai Elordi ingeniero informático e investigador de Inteligencia Artificial y Computer Vision en Vicomtech

Otros usos y aplicaciones de los vídeos hiperrealistas

Los deepfakes y deepvoices son un riesgo para empresas y organizaciones, pero también son una oportunidad. Depende de la “intencionalidad” que se dé a esa tecnología, apunta Elordi, quien destaca que permite generar imágenes sintéticas de personas que no existen y, por tanto, que no se exponen. Y eso, en investigaciones, por ejemplo, sobre detección de enfermedades es una clara ventaja.

El cine y la publicidad también han utilizado esta tecnología en los últimos años. Star Wars resucitó a Carrie Fisher como princesa Leia o Fast and Furious pudo completar la séptima entrega de la saga recreando imágenes del fallecido Paul Walker. Y uno de los anuncios más sonados fue el que Lola Flores protagonizó para Cruzcampo, 25 años después de su muerte.

«Nos ponemos a hablar de tecnología y olvidamos que la realidad del problema es el chat de Whatsapp de nuestra tía. La desinformación no es solo tecnología. (…) Los seres humanos tenemos una serie de sesgos que nos hacen compartir más la desinformación, verla con mejores ojos y creerla más»

Aunque para  Clara Jiménez, CEO y cofundadora de Maldita.es,  medio de comunicación español dedicado al fact checking,  los deepfakes no suponen por ahora un problema, sí “existe un riesgo brutal”. En el episodio del podcast explica que “va a ser mucho más grave si empiezan a aparecer deepfakes de nuestros políticos y la gente no está preparada para ser consciente de que pueden estar intentado engañarles”.

Y es que recibimos una avalancha diaria de mensajes y llamadas de atención y, en ocasiones, es difícil discernir un contenido real de uno falso. Pasa con las llamadas fake news, que además, corren como la pólvora. Un estudio de la revista Science confirma, que la desinformación corre a una velocidad siete veces superior a las noticias reales.

Los deepfakes son una oportunidad tecnológica para generar imágenes y voces sintéticas de personas que no existen sin que tengan que exponerse, pero abren nuevas amenazas y riesgos de ciberseguridad para las empresas.

Escucha el episodio