Videos realistas donde la inteligencia artificial manipula la voz y la imagen para crear engaños.

  • Comentar
  • Guardar

    Ingrese o regístrese acá
    para guardar los artículos en su
    zona de usuario y leerlos cuando quiera

    Este artículo ya fue guardado
    Para consultarlo en otro momento, visite su zona de usuario.

    Artículo guardado
    Para consultarlo en otro momento, visite su zona de usuario.

    El artículo no pudo ser guardado, intente nuevamente

  • Enviar
  • Linkedin

Un video falso con el rostro de Mark Zuckerberg genera preocupación por posibilidad de noticias falsas. 

Aún hay más noticias ¡Sigue bajando!

Un video de Mark Zuckerberg en el que dice que una persona es dueña de todos sus secretos ha generado preocupación entre los expertos del sector. Aunque se trata de un mensaje falso, con frases que el CEO de Facebook nunca pronunció en su conjunto, la pieza de video resultante, que hace parte de una exposición artística, es tan realista que da escalofríos. 

La tecnología detrás de la manipulación es conocida como la creadora de los ‘Deepfakes’. Se trata de una aplicación que utiliza inteligencia artificial para emular la gesticulación facial sobre un video y a partir de miles de imágenes de una persona obtiene resultados bastante convincentes. En el pasado, el sistema se hizo conocido por una serie de escándalo con falsos videos porno creados con imágenes de actrices famosas. 

La preocupación principal es que la autenticidad de un contenido es cada vez más difícil de comprobar. Las nuevas capacidades engañan la vista corriente y en medio de la desinformación, las noticias falsas y las campañas coordinadas para manipular las opiniones en redes sociales, es desafiante estar preparado para chequear la veracidad de lo que llega a su WhatsApp. 

El escalofriante deepfake de Zuckerberg que pone a prueba su algoritmo

Así se libra la batalla contra las noticias falsas en redes

En opinión del postdoctor Alexánder Caicedo, profesor del Programa de Matemáticas Aplicadas y Ciencias de la Computación de la Universidad del Rosario, los resultados de este sistema son sorprendentes. 

El ‘Deepfake’ de Mark Zuckerberg fue publicado en Instagram en el marco de una exposición de arte que juega con el concepto de la tecnología.

(Esta tecnología podría) facilitar la creación de ‘fake news’ y poner a una persona a decir cosas que nunca dijo

«Uno piensa que es real, pues la calidad del video es muy buena. Después, sabiendo que es creado de forma artificial, da un poco de miedo por el uso que se le puede dar a estas tecnologías y la responsabilidad de los creadores frente al uso de las herramientas que pueden hacer mucho daño», expresa.

El experto en machine learning asegura que el principio fundamental de los ‘Deepfakes’ son las redes generativas antagónicas (GAN por sus siglas en inglés), unos desarrollos en los que dos algoritmos compiten entre sí por crear piezas cada vez más realistas. 

Este tipo de redes se asemejan a la figura de un policía y un ladrón. Un algoritmo discriminador es entrenado para diferenciar algo entre un conjunto de datos, como por ejemplo una manzana. Para lograrlo, necesita suficiente cantidad de manzanas y de suficiente variedad para que si ve una verde, una roja o una de agua sea capaz de reconocerlas y diferenciarlas. 

El otro algoritmo, el generador, actúa conociendo criterios previos sobre qué sería falso o qué sería real para el discriminador. Su trabajo es generar contenidos, como fotos de manzanas creadas artificialmente, para engañar al discriminador. Si la manzana es azul, cuadrada y con hoyos, fallará en el intento, pero a medida que se ajusta el algoritmo es cada vez más eficiente. 

El retrato de Edmond Belamy fue vendido en EE. UU. por un valor superior a los 400.000 dólares.

Usos más allá de la teoría

Esos problemas inversos generan y evalúan patrones y luego califican los resultados con probabilidad. Según Caicedo, estas redes son usadas frecuentemente para muchos fines. Desde producir imágenes hasta generar claves seguras de forma automática.

Por ejemplo, meses atrás se subastó en EE. UU. un cuadro generado por inteligencia artificial por un valor superior a los 400.000 dólares. La creación del ‘Baron of Belamy’, inspirado en las obras de Rembrandt, fue producto de un algoritmo GAN, del colectivo francés Obvious, que se alimentó con más de 15.000 retratos y pinturas existentes.

También hay aplicaciones en la ciencia, Caicedo asegura que se usan en mapeos de concentración de materia negra y son una tecnología atractiva para las industrias. Otro uso son algunas remasterizaciones de videojuegos, que toman títulos de baja calidad para mejorarlos gráficamente hasta calidades en 4K de forma computarizada. 

¿Ya no se puede creer en nada?

La masificación de videos realistas en los que podría colocarse al presidente de una nación a decir cosas que no son ciertas puede desatar una crisis de opinión pública nunca antes vista. No son pocas las preocupaciones para periodistas, investigadores y organizaciones sociales alrededor de las ‘fake news’, que hasta ahora se valen de textos parcializados e imágenes editadas para descontextualizar un hecho. 
Actrices famosas como Emma Watson, Gal Gadot y Scarlett Johannson se vieron afectadas en el pasado con videos que simulaban encuentros sexuales explícitos. 

La animación realista de rostros de famosas en videos porno fue revelada en febrero de 2018. Los contenidos eran creados con una herramienta de inteligencia artificial.

Las ‘Deepfakes’ son más que GAN, para lograr sus resultados, tan escalofriantemente realistas, usan otras herramientas de inteligencia artificial para acoplar un rostro o una parte del rostro generada artificialmente en un video real. Cosas como las sombras en el ambiente, la gesticulación y los ángulos son ajustados por los sistemas. 

Como lo plantea Caicedo, esta tecnología podría «facilitar la creación de ‘fake news’ y poner a una persona a decir cosas que nunca dijo«. En su criterio el impacto más grande es que un video artificial se utilice como prueba de un mensaje en un tema pasional que busque polarizar a la opinión pública.

Sin embargo asegura que el problema es el uso y no la herramienta per sé. De hecho, argumenta que la misma tecnología podría ser la solución para enfrentar una eventual oleada de desinformación. Como si las redes antagónicas se entrenaran para reconocer el paso de sistemas parecidos en el contenido. 

«Ese mismo método puede permitir desarrollar algoritmos que nos ayuden a detectar lo real y lo ‘fake’. La cura a esos riesgos podría ser una red antagonista que pueda cazar la otra». 

Lo que define la superioridad al final entre los algoritmos, son los datos con los que los entrenan. La calidad de los datos cambia la probabilidad de los resultados. Ello, junto a las habilidades o la astucia de los investigadores serán clave en la batalla contra una próxima generación de las noticias falsas. 

REDACCIÓN TECNÓSFERA
@TecnosferaET

Descarga la app El Tiempo. Con ella puedes escoger los temas de tu interés y recibir notificaciones de las últimas noticias. Conócela acá

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Check Also

Día clave para esclarecer el futuro de Neymar

Mercado de fichajes El futbolista brasileño se incorpora hoy al PSG y mantendrá una reunió…