Viral

Así puedes detectar un video ‘deepfake’

Para detectar videos 'deepfake' o ultrafalsos, creados mediante inteligencia artificial, hay que examinar algunas señales 'delatoras' de la fisiología humana que las máquinas aún no han aprendido a reproducir

Agencias

SAN FRANCISCO.

Una de las principales herramientas para identificar vídeos ‘deepfake’ (ultra falsos) creados mediante inteligencia artificial es ser capaz de detectar las señales delatoras de la fisiología humana que las máquinas aún no han aprendido a reproducir, explicó un experto en este campo.

Ante la alarma generalizada por estos videos en los que se modifican imágenes de forma sintética para, por ejemplo, poner en boca de un político algo que este jamás ha dicho, el director de Ética y Gobierno en la Iniciativa de Inteligencia Artificial de Harvard-MIT, Tim Hwang, recetó recurrir a las señales delatoras.

Por ejemplo, las caras en los videos deepfake pestañean con menor frecuencia que en el mundo real”, dijo Hwang.

Así puedes detectar un video 'deepfake'

Explicó que eso se debe al hecho de que en el aprendizaje automatizado -la técnica usada para modificar estas imágenes- se entrena a los sistemas con datos que, en muchas ocasiones, son sesgados.

Para hacer un video deepfake del expresidente de Estados Unidos Barack Obama o del actual presidente, Donald Trump, normalmente se recurre a muchas imágenes de internet, en las que estos rara vez aparecen con los ojos cerrados. Por tanto, lo que el sistema aprende es a producir imágenes de Obama o Trump con los ojos abiertos, en las que apenas pestañean”, apuntó el experto.

Estas señales delatoras son sesgos en los datos de origen con los que se “enseña” a los sistemas de aprendizaje automatizado que no capturan todos los detalles fisiológicos de los seres humanos y que permiten, si se observan las imágenes con atención, distinguir un video real de uno ultrafalso.

La tecnología de detección de deepfake es muy buena. Puede que este no sea un problema tan grande como la gente cree”, indicó Hwang.

 

Aunque alertó de que ni las técnicas de detección ni las que buscan engañar “serán siempre perfectas”, por lo que en su opinión la lucha contra los ‘deepfake’ será “una carrera armamentística en permanente cambio”.

Uno de los escenarios hipotéticos que más alarma ha generado es el de que estos videos manipulados sean usados para propagar desinformación en la previsiblemente crispada campaña de las elecciones presidenciales en Estados Unidos el año que viene, especialmente tras las injerencias por parte de hackers rusos en la de 2016.

Al planteársele esta posibilidad, el director de Ética y Gobierno del proyecto impulsado por las universidades de Harvard y el MIT (Massachusetts Institute of Technology) indicó que, en su opinión, se ha sobredimensionado este riesgo, ya que quienes se dedican a propagar información falsa son “gente pragmática” cuyo objetivo es crear la mayor cantidad de contenidos con el menor esfuerzo.

Eso se puede hacer, por ejemplo, escribiendo mensajes de texto o manipulado imágenes con Photoshop. Todavía resulta mucho más fácil crear información falsa que no requiera aprendizaje automatizado como en el caso de los deepfake. Por eso creo que veremos mucho más estas técnicas en lugar de los exóticos ultrafalsos”, apuntó

Así puedes detectar un video 'deepfake'

Durante los últimos meses se han popularizado en internet videos manipulados con esta técnica de figuras públicas de toda índole: desde políticos como Trump, Obama y la exsecretaria de Estado Hillary Clinton, hasta actores como Nicolas Cage y empresarios de la industria tecnológica como Elon Musk (Tesla) y Mark Zuckerberg (Facebook), entre otros.

Creo que las personas seguirán siendo las responsables en última instancia de determinar qué es real y qué no lo es, pero las plataformas tecnológicas deberían ponérselo fácil”, dijo el experto ante la posibilidad de que los ‘deepfake’ ganen cada vez más presencia online.

 

Para ello, sugirió que las compañías de internet como Facebook, Twitter o Google “den el primer paso” y expliquen al internauta que, con base a los análisis de sus sistemas y a otros casos detectados, un contenido determinado es susceptible de haber sido generado sintéticamente, aunque la decisión final de compartir o no ese contenido recaerá sobre el usuario.

Los deepfake son muy buenos creando mejores marionetas, pero no necesariamente mejores marionetistas. Se puede hacer que Trump diga algo de forma muy creíble, pero ningún sistema de aprendizaje automatizado puede determinar qué es lo que Trump debe decir para que el contenido suene creíble”, remachó el experto.

Mostrar mas

Noticias relacionadas

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Back to top button