• Los expertos persiguen un algoritmo que detecte una imagen generada mediante algoritmos de difusión o sus variantes
  • Los resultados de los algoritmos actuales dan resultados bastante insatisfactorios

La Universitat Politècnica de Catalunya (UPC), junto con los miembros del proyecto IVERES de RTVE, trabaja en perfeccionar la detección de imágenes falsas en tanto que los resultados obtenidos hasta el momento no son del todo satisfactorios para la comunidad científica, la académica y la periodística.

A lo largo del proyecto IVERES hemos podido comprobar cómo algunos de los mecanismos de generación de imágenes falsas, basadas en algoritmos de difusión, son todavía bastante difíciles de detectar de forma automática. De ahí la importancia de perfeccionar la detección de imágenes de imágenes falsas. Vemos en este link ( imágenes falsas.) el ejemplo del anorak del Papa, la detención de Trump y otras imágenes generadas por Inteligencia Artificial.

Existen muchas técnicas disponibles para cualquier usuario a través de webs y apps de generación de imagen como Dalle-2Stable DifussionMidjourneyBing (Dalle-3) de Open AI,.. utilizadas con mucha frecuencia para ilustrar noticias falsas.

Según varios expertos consultados de la Universitat Politècnica de Catalunya, estos algoritmos son bastante más recientes y, aunque existen algunas propuestas para la detección automática de este tipo de imágenes, «sus resultados no son todavía del todo satisfactorios», asegura el ingeniero informático, Dr. Francesc Tarrés.

F. Tarrés: sus resultados no son todavía del todo satisfactorios

Nuevos algoritmos

El objetivo es que éstos permitan la detección automática y fiable de este tipo de imágenes que habitualmente son generadas a partir de un texto que las define. En el avance hacia una detección de imagen falsa se han volcado muchos intentos, más o menos, fallidos con una conclusión bastante unánime.

Los expertos aseguran que si se degenera una imagen artificial y se vuelve a generar, obtendremos una imagen muy parecida a la original. En cambio, si degeneramos una imagen natural y la intentamos volver a generar mediante algoritmos de difusión, la imagen obtenida difiere de forma considerable de la de partida.

Discriminar imágenes naturales

El error en la reconstrucción permite, en cierta medida, discriminar las imágenes naturales de las artificiales. El error es grande cuando la imagen es natural y pequeño cuando se parte de una imagen generada mediante algoritmos de inteligencia artificial. Esencialmente, esta es una idea en la que han estado trabajado diferentes laboratorios de investigación con resultados aceptables, aunque no totalmente satisfactorios. Los diferentes algoritmos proponen estrategias de degradación y generación diferentes.

Monitorización de contenidos

En la primera línea se ha desarrollado un sistema de monitorización de contenidos que facilita y automatiza la tarea de seguimiento de diferentes canales sospechosos de la difusión de noticias falsas a nivel internacional.

Esencialmente, se trata de un software que monitoriza los contenidos de los canales de YouTube y TikTok seleccionados por el usuario y que, cada 30 minutos, descarga los videos de los nuevos contenidos que se han subido al canal. Una vez descargado el vídeo se realiza una transcripción del audio en su versión original, donde se admiten más de 90 idiomas de entrada y posteriormente una traducción del mismo al español y al inglés. Con este mecanismo se genera una base de datos propia en la que se dispone del contenido de los canales en formato audio, video y textual. Son estos contenidos de audio, imagen, video y texto que se utilizarán posteriormente para realizar una valoración de la probabilidad de que las noticias sean falsas.

Esta primera parte del desarrollo está en un estado muy avanzado y ya se está probando su funcionalidad por diversos equipos de trabajo en RTVE, EFE, UAB, etc. 

Categorías de fakes

Una segunda línea de trabajo en el grupo de IVERES de la UPC es el estudio y el desarrollo de algoritmos para la detección de imágenes o vídeos generados de forma artificial. En este sentido se han clasificado los algoritmos de generación de fakes en diferentes categorías.

Como ejemplos de estas categorías tendríamos la manipulación de imágenes mediante algoritmos de tratamiento de imagen, la generación de caras artificiales, la generación de nuevos atributos (gafas, barba, tinte de pelo, etc.), el intercambio de caras entre un actor y un personaje célebre (face swapping).

El software, a prueba

Hay técnicas que llevan instauradas bastantes años y para las que existen múltiples herramientas, muy probadas, tanto para la generación de las imágenes como para su detección. En este caso, el proyecto IVERES ha necesitado analizar todos estos métodos, probarlos en diferentes bases de datos y seleccionar e implementar aquellas herramientas software que proporcionan mejores resultados.

Estas herramientas se han incorporado en el aplicativo de monitorización para facilitar que el analista de noticias pueda verificar si las imágenes o vídeos que aparecen son susceptibles de haber sido generados de forma artificial

Subscríbete para estar al tanto de todas las novedades

Puedes subscribirte a nuestro blog para estar al tanto de todas las noticias relacionadas con el PROYECTO IVERES.

Gracias por tu confianza!

Subscríbete para estar al tanto de todas las novedades

Puedes subscribirte a nuestro blog para estar al tanto de todas las noticias relacionadas con el PROYECTO IVERES.

You have Successfully Subscribed!

Subscríbete para estar al tanto de todas las novedades

Puedes subscribirte a nuestro blog para estar al tanto de todas las noticias relacionadas con el PROYECTO IVERES.

You have Successfully Subscribed!