• DIrecto Última hora de la guerra en Ucrania

Un estudio pionero sobre los vídeos falsos de guerra ha revelado su impacto en los medios de comunicación y sus implicaciones para las empresas de redes sociales, los medios de comunicación y los gobiernos, según publican sus autores en la revista ‘Plos One’. Los llamados ‘deepfakes’ son material audiovisual manipulado artificialmente. La mayoría implican la producción de una «cara» falsa construida por Inteligencia Artificial, que se fusiona con un vídeo auténtico, con el fin de crear un vídeo de un acontecimiento que nunca tuvo lugar realmente.

Aunque falsos, pueden parecer convincentes y a menudo se producen para imitar o remedar a una persona. Investigadores del University College Cork (UCC), en Irlanda, examinaron tuits durante la actual guerra ruso-ucraniana, en lo que constituye el primer análisis del uso de deepfakes en la desinformación y la propaganda bélicas. En el estudio analizaron cerca de 5.000 tuits en X (antes Twitter) en los primeros siete meses de 2022 para explorar cómo reacciona la gente ante el contenido ‘deepfake’ en línea, y para descubrir pruebas de los daños previamente teorizados de los ‘deepfakes’ en la confianza.

A medida que la tecnología ‘deepfake’ se hace cada vez más accesible, es importante comprender cómo surgen estas amenazas en las redes sociales. La guerra en Ucrania fue el primer ejemplo real de uso de ‘deepfakes’ en conflictos bélicos. Los investigadores destacan ejemplos de vídeos deepfake durante esta guerra, entre ellos el uso de imágenes de videojuegos como prueba del mito urbano del piloto de combate ‘El fantasma de Kiev’, un ‘deepfake’ del presidente ruso Vladimir Putin, que mostraba al presidente ruso anunciando la paz con Ucrania, y el pirateo de un sitio web de noticias ucraniano para mostrar un mensaje falso de rendición del presidente ucraniano Volodimir Zelenski.

Según el estudio, el temor a los ‘deepfakes’ a menudo minaba la confianza de los usuarios en las imágenes que recibían del conflicto, hasta el punto de que perdían la confianza en cualquier imagen procedente del conflicto. El estudio es también el primero de este tipo en encontrar pruebas de teorías conspirativas en línea que incorporan ‘deepfakes’. Los investigadores descubrieron que gran parte de los medios de comunicación reales eran etiquetados como ‘deepfakes’.

El estudio demostró que la falta de alfabetización sobre este fenómeno dio lugar a importantes malentendidos sobre lo que constituye un ‘deepfake’, lo que demuestra la necesidad de fomentar la alfabetización en estas nuevas formas de medios de comunicación. Sin embargo, el estudio demuestra que los esfuerzos por concienciar sobre los ‘deepfakes’ pueden socavar la confianza en los vídeos legítimos.

El estudio afirma que los medios de comunicación y las agencias gubernamentales deben sopesar los beneficios de los ‘deepfakes’ educativos y el ‘pre-bunking’ frente a los riesgos de socavar la verdad. Del mismo modo, las empresas de noticias y los medios de comunicación deben tener cuidado con la forma en que etiquetan los presuntos ‘deepfakes’ por si causan sospechas en los medios reales.

El estudio ha sido dirigido por y coescrito con su colega Didier Ching, junto con los supervisores doctores Conor Linehan y Gillian Murphy, de la UCC, Matthew Aylett, de CereProc Ltd. y la Universidad Heriot-Watt, y el profesor Michael Quayle, de la Universidad de Limerick. «Gran parte de la desinformación que el equipo analizó en el conjunto de datos del discurso X (antes Twitter) procedía sorprendentemente del etiquetado de medios reales como deepfakes -apunta-.

También se obtuvieron nuevas conclusiones sobre el escepticismo ante los deepfakes, como la relación entre el fomento de las creencias conspirativas y el escepticismo malsano. «Las pruebas de este estudio demuestran que los esfuerzos por concienciar sobre los deepfakes pueden socavar nuestra confianza en los vídeos legítimos. Con la prevalencia de los deepfakes en Internet, esto planteará cada vez más problemas a las empresas de medios informativos, que deberán tener cuidado con la forma en que etiquetan los presuntos deepfakes por si levantan sospechas en torno a los medios reales», afirma el investigador de la Facultad de Psicología Aplicada de la UCC John Twomey.

«La cobertura informativa de los deepfakes debe centrarse en educar a la gente sobre qué son los deepfakes, cuál es su potencial y cuáles son sus capacidades actuales y cómo evolucionarán en los próximos años», añade.»Investigadores y comentaristas temen desde hace tiempo que los deepfakes tengan el potencial de socavar la verdad, difundir desinformación y minar la confianza en la exactitud de los medios informativos. Los vídeos deepfake podrían socavar lo que sabemos que es cierto cuando los vídeos falsos se creen auténticos y viceversa», indica el doctor Conor Linehan, de la Facultad de Psicología Aplicada de la UCC.