• 1
Martes 05 de Noviembre de 2024 a las 07:00

¿Es posible detectar imágenes de personas generadas con IA?

Un estudio realizado por el grupo de investigación Ciberimaginario ha analizado si la información de contexto que acompaña a una imagen condiciona su credibilidad. Los resultados concluyen que, actualmente, resulta imposible detectar el contenido falso visualizando únicamente la imagen.

Redacción / Irene Vega

En un mundo donde la inteligencia artificial (IA) está a la orden del día, existen herramientas capaces de generar contenido verosímil que pueden confundir a los usuarios a la hora de distinguir entre lo verdadero y lo creado con IA. Esto es especialmente relevante en el caso de las herramientas que generan imágenes realistas de personas, lo que da origen al concepto de deepfake. Ante esta situación, el grupo de investigación Ciberimaginario ha llevado a cabo un estudio con el objetivo de comprobar si la información de contexto que acompaña a una imagen condiciona su credibilidad. “La alfabetización mediática se ha vuelto esencial, ya que educa a los usuarios para la identificación de lo real frente a lo falso, además de alertarles de la posibilidad de estar frente a un deepfake. Dado que actualmente es indetectable reconocerlo, la distorsión de la realidad en el mundo informativo se convierte en un problema significativo”, apunta Alberto Sanchez-Acedo, investigador de Ciberimaginario y coautor del estudio, publicado en la revista Communication & Society.

Los resultados obtenidos muestran que los participantes, en este caso jóvenes estudiantes de la Comunidad de Madrid, priorizaron la imagen sobre el resto de los elementos de contexto a la hora de reconocer un deepfake. “Esto reafirma la idea de que estamos constantemente expuestos a información visual, siendo la imagen la principal protagonista”, añade el investigador.

Imágenes reales versus imágenes falsas

El método empleado para realizar el estudio ha consistido en separar dos grupos de participantes, divididos de manera equitativa en un grupo de control y otro experimental. En ambos grupos, se les expuso a un entorno virtual donde podían ver recreaciones de portadas de periódico que incluían una imagen y su respectiva información de contexto. En el caso del grupo de control, los participantes visualizaron imágenes reales acompañadas de información de contexto también real, mientras que el grupo experimental visualizó imágenes generadas con IA acompañadas también con información de contexto real.

“A continuación, realizamos un análisis cuantitativo y descriptivo de frecuencias y porcentajes de cada una de las variables analizadas, incluyendo el nivel de estudios y el método de acceso a la información. Además, llevamos a cabo un análisis estadístico porcentual para medir el grado de importancia de la fuente de información, el titular y la imagen en el proceso de reconocimiento”, explica Alberto Sanchez-Acedo.

Una vez analizados los resultados, los autores del estudio subrayan que, actualmente, resulta imposible detectar un deepfake únicamente visualizando la imagen. “Instamos a nuevos investigadores a replicar este estudio con muestras más amplias y de diferentes grupos poblacionales para comparar los patrones y tendencias que resultan de esta investigación”, concluye el investigador.

En este trabajo han participado, junto a Alberto Sanchez-Acedo, Alejandro Carbonell-Alcocer, Manuel Gertrudix y Jose Luis Rubio-Tamayo, todos profesores de la URJC y miembros del Grupo de investigación Ciberimaginario. Además, la investigación presenta una serie de recomendaciones para la prevención de deepfakes en la era virtual que se puede consultar en este enlace.