1- Qué son

El gerente de operaciones con el consumidor de la empresa Panda Security, Hervé Lambert, explica que un ultrafalso supone falsificar la cara y la voz de una persona en archivos de vídeo y audio usando inteligencia artificial, con una calidad que hace difícil diferenciar realidad de ficción. “No tengo duda de que seguirán creciendo, y de forma brutalmente rápida”, dice Lambert, quien señala el phising a través de los ultrafalsos como uno de los mayores retos de ciberseguridad para 2020.

2- Cómo son

Aunque hace tiempo que están entre nosotros, quizás el más conocido en España sea la parodia El equipo E, en el que se usaban las caras de los principales líderes políticos del país para hacerlos pasar por los protagonistas de la serie televisiva de los años ochenta El equipo A.

3- Cuánto crecen

La firma de ciberseguridad danesa Deeptrace, en un estudio publicado en octubre del año pasado, señalaba que el fenómeno de los ultrafalsos estaba creciendo rápidamente y que durante los siete primeros meses de 2019 habían detectado 14.678 casos, un número que casi duplicaba el del periodo precedente.

4- Qué preocupa

La tecnología tiene su cara positiva, pero también una vertiente oscura, depende del uso que se le dé, y en el caso de los deepfake, el hecho de que permitan suplantar una identidad de manera tremendamente real abre la puerta a usos ilícitos, sobre todo cuando cada vez es más fácil acceder a la tecnología necesaria y con mejores resultados. Hacer un ultrafalso “todavía no es un juego de niños, pero es relativamente sencillo”, agrega.

5- Qué se necesita

Para hacer un vídeo de este tipo basta con una decena de imágenes y la inteligencia artificial hace el resto, dice Lambert, quien agrega: “Esta misma mañana me he descargado ocho aplicaciones gratis”. Y advierte sobre la facilidad con la que algunos usuarios dan permiso a aplicaciones para que puedan usar sus imágenes, y es que “nadie mira los términos y condiciones de uso” cuando lo hacen.

6- De qué van

Un porcentaje muy elevado de este tipo de vídeos están relacionados con la pornografía, pero otros tienen que ver con desacreditar a una persona haciendo creer que ha dicho cosas cuando no es cierto, o con intentos de fraude. Además, según Deeptrace, estos vídeos falsos “están teniendo un impacto significativo en la esfera política” con dos casos “emblemáticos” en Gabón y Malasia, uno de ellos relacionado con una campaña de desprestigio político. Con esta técnica es posible ver y oír decir al expresidente de Estados Unidos Barack Obama que su sucesor, Donald Trump, es un “completo idiota”. Lo hace en un ultrafalso creado por el guionista Jordan Peele para alertar sobre el peligro de estos vídeos. Pero los deepfake engloban también la voz, con la que “vemos muchos timos de este estilo”, señala Lambert. “Si recibo una llamada del CEO de mi empresa y me pide que le pase el documento con la estrategia del año que viene, se lo pasaré aunque sea a una dirección (de correo electrónico) diferente a la habitual”, lo que supone un enorme problema de seguridad.

7- Qué hacer

Por el momento, se están empezando a tomar medidas y Facebook ha anunciado que prohibirá estos vídeos de cara a las elecciones estadounidenses de 2020, aunque sí estarán admitidas las parodias. En China está prohibidos desde comienzo de año. Detectar estas prácticas es todo un reto, y se puede recurrir a la inteligencia artificial para detectar a la propia inteligencia artificial usada para crear ultrafalsos, pero Lambert reconoce: “A día de hoy, un software capaz de detectarlos no existe, al menos, no que yo sepa”.