Hallar señales "chivatas", la clave para luchar contra los vídeos ultrafalsos

EEUU TECNOLOGÍA | 25 de junio de 2019

Una persona observa un vídeo de un hombre armado y encapuchado en la plataforma Youtube, el jueves 10 de agosto de 2017, en Caracas (Venezuela). EFE/Archivo

San Francisco, 25 jun (EFEUSA).- Una de las principales herramientas para identificar vídeos ultrafalsos creados mediante inteligencia artificial es ser capaz de detectar las señales "chivatas" de la fisiología humana que las máquinas aún no han aprendido a reproducir, explicó a Efe un experto en este campo.

Ante la alarma generalizada por estos vídeos en los que se modifican imágenes de forma sintética para, por ejemplo, poner en boca de un político algo que este jamás ha dicho, el director de Ética y Gobierno en la Iniciativa de Inteligencia Artificial de Harvard-MIT, Tim Hwang, recetó recurrir a las señales "chivatas".

"Por ejemplo, las caras en los vídeos ultrafalsos pestañean con menor frecuencia que en el mundo real", dijo Hwang a Efe, y explicó que eso se debe al hecho de que en el aprendizaje automatizado -la técnica usada para modificar estas imágenes- se entrena a los sistemas con datos que, en muchas ocasiones, son sesgados.

"Para hacer un vídeo ultrafalso del expresidente de EE.UU. Barack Obama o del actual presidente, Donald Trump, normalmente se recurre a muchas imágenes de internet, en las que estos rara vez aparecen con los ojos cerrados. Por tanto, lo que el sistema aprende es a producir imágenes de Obama o Trump con los ojos abiertos, en las que apenas pestañean", apuntó el experto.

Estas señales "chivatas" son sesgos en los datos de origen con los que se "enseña" a los sistemas de aprendizaje automatizado que no capturan todos los detalles fisiológicos de los seres humanos y que permiten, si se observan las imágenes con atención, distinguir un vídeo real de uno ultrafalso.

"La tecnología de detección de ultrafalsos es muy buena. Puede que este no sea un problema tan grande como la gente cree", indicó Hwang, aunque alertó de que ni las técnicas de detección ni las que buscan engañar "serán siempre perfectas", por lo que en su opinión la lucha contra los ultrafalsos será "una carrera armamentística en permanente cambio".

Uno de los escenarios hipotéticos que más alarma ha generado es el de que estos vídeos manipulados sean usados para propagar desinformación en la previsiblemente crispada campaña de las elecciones del año que viene, especialmente tras las injerencias por parte de "hackers" rusos en las de 2016.

Al planteársele esta posibilidad, el director de Ética y Gobierno del proyecto impulsado por las universidades de Harvard y el MIT (Massachusetts Institute of Technology) indicó que, en su opinión, se ha sobredimensionado este riesgo, ya que quienes se dedican a propagar información falsa son "gente pragmática" cuyo objetivo es crear la mayor cantidad de contenidos con el menor esfuerzo.

"Eso se puede hacer, por ejemplo, escribiendo mensajes de texto o manipulado imágenes con Photoshop. Todavía resulta mucho más fácil crear información falsa que no requiera aprendizaje automatizado como en el caso de los ultrafalsos. Por eso creo que veremos mucho más estas técnicas en lugar de los exóticos ultrafalsos", apuntó.

Durante los últimos meses se han popularizado en internet vídeos manipulados con esta técnica de figuras públicas de toda índole: desde políticos como Trump, Obama y la exsecretaria de Estado Hillary Clinton, hasta actores como Nicolas Cage y empresarios de la industria tecnológica como Elon Musk (Tesla) y Mark Zuckerberg (Facebook), entre otros.

"Creo que las personas seguirán siendo las responsables en última instancia de determinar qué es real y qué no lo es, pero las plataformas tecnológicas deberían ponérselo fácil", dijo el experto ante la posibilidad de que los ultrafalsos ganen cada vez más presencia online.

Para ello, sugirió que las compañías de internet como Facebook, Twitter o Google "den el primer paso" y expliquen al internauta que, en base a los análisis de sus sistemas y a otros casos detectados, un contenido determinado es susceptible de haber sido generado sintéticamente, aunque la decisión final de compartir o no ese contenido recaerá sobre el usuario.

"Los ultrafalsos son muy buenos creando mejores marionetas, pero no necesariamente mejores marionetistas. Se puede hacer que Trump diga algo de forma muy creíble, pero ningún sistema de aprendizaje automatizado puede determinar qué es lo que Trump debe decir para que el contenido suene creíble", remachó el experto.

  • Ningún comentario presente
Normas de comentarios

www.wnenespanol.com no se hace responsable de las ideas expresadas por los autores de los comentarios y se reserva el derecho a eliminar aquellos contenidos que:
  • resulten ofensivos y/o discriminatorios
  • que tengan como fin promover el boicot contra personas, productos empresas o instituciones
  • que atenten contra el derecho a la intimidad, al honor y/o a la propia imagen o nombre
  • aquellos que busquen fines comerciales y/o publicitarios
500 caracteres disponibles
Para evitar spam, por favor resuelva este simple problema matematico e ingrese el resultado (pinche en la imagen para recargarla).

Hispanos