Un estudio con IA revela que la desinformación sobre la DANA provoca miedo en X y rabia en TikTok
Tres investigadores identifican el patrón emocional y lingüístico diferenciado que marcan los contenidos relacionados con la tragedia: "Muchos de los mensajes, aparte de provocar estas emociones entre la ciudadanía, tenían como fin criticar las actuaciones del Gobierno central, más que las de la Generalitat”Los bulos y falsedades sobre la DANA de València: de los “cientos” de cadáveres de Bonaire a la demolición de los pantanos Los bulos sobre la DANA han inundado las redes sociales desde el primer momento, intensificando el desasosiego entre la ciudadanía y favoreciendo la viralización de contenidos engañosos difundidos por quienes aprovecharon la tragedia como caldo de cultivo. Pseudoperiodistas, usuarios anónimos y políticos ultras –englobados en lo que ha dado en llamarse la 'fachosfera'– no dudaron en imponer una lógica falaz sobre lo que estaba sucediendo en el área metropolitana de València. Los discursos con tono y voz más emocionales, con forma de “experiencias personales”, esparcían noticias falsas como la de los muertos en el parking del centro comercial Bonaire y provocaban emociones diferenciadas: ira, en el caso de TikTok, y miedo, en el caso de X. Esta es una de las conclusiones extraídas de un reciente estudio sobre Patrones emocionales divergentes en la desinformación en las redes sociales. Un análisis de tweets y tiktoks sobre la DANA en Valencia dirigido por los investigadores de la Universitat Politècnica de València Paolo Rosso e Iván Arcos, junto a Ramón Salaverría, de la Universidad de Navarra, y publicado por el Iberian Digital Media Observatory (IDMO), organismo cofundado por la Comisión Europea en colaboración con el European Digital Media Observatory (EDMO). “Nos ha impactado cómo se ha jugado con las emociones de la gente a raíz de la desgracia”, explica Rosso, también miembro de la fundación sin ánimo de lucro ValgrAI (Valencian Graduate School and Research Network of Artificial Intelligence), en una conversación telefónica con este medio. A raíz de ese punto de partida, los expertos quisieron analizar los contenidos tanto de la plataforma de TikTok como de la red que controla Elon Musk: “Queríamos analizar qué patrones lingüísticos y qué patrones emocionales se utilizaban en estos vídeos ya detectados como desinformaciones por los verificadores (Maldita.es, Newtral y EFE Verifica) usados ; y por otra parte, clasificar de forma automática para ver si a partir de unas muestras con palabras clave se podía recuperar contenido relacionado con la DANA, pero sin información falsa para pasar una parte de estos ejemplos a los modelos de IA para comprobar si eran capaces de aprender a discriminar”. En este sentido, el investigador de la UPV insiste en que los fact-checkers de esas empresas suelen estar “desbordados” por la cantidad ingente de informaciones para verificar que circulan por las redes, por lo que el modelo GPT-4o Few-Shot podría ayudar en la automatización del etiquetado de los contenidos y poder “detectar bulos en tiempo real”. “Es una ayuda indudable en su oficio. Nos ha interesado ver hasta qué punto el modelo era capaz de etiquetar algo como bulo o no bulo. Íbamos con expectativas bajas, pero ha sido mejor de lo que esperábamos”, asevera. Palabras clave como Vito Quiles, manipulaciones y música dramática De forma manual, los investigadores apuntaron un total de 650 publicaciones para discernir entre contenido veraz y desinformaciones, a través de un método cualitativo (análisis de narrativas, revisión manual de datos y observación de estrategias de desinformación) y cuantitativo (modelos de IA, estadísticas, detección de emociones y métricas de precisión). Total de información veraz y falsa, y palabras que más aparecían en el contenido relacionado con la DANA Y es que el informe refuerza lo que se viene defendiendo en numerosos estudiosos sobre que las emociones son una estrategia habitual en los discurs
![Un estudio con IA revela que la desinformación sobre la DANA provoca miedo en X y rabia en TikTok](https://static.eldiario.es/clip/fb01f517-4211-40fd-963b-416d94ea091d_16-9-discover-aspect-ratio_default_1105368.jpg?#)
Tres investigadores identifican el patrón emocional y lingüístico diferenciado que marcan los contenidos relacionados con la tragedia: "Muchos de los mensajes, aparte de provocar estas emociones entre la ciudadanía, tenían como fin criticar las actuaciones del Gobierno central, más que las de la Generalitat”
Los bulos y falsedades sobre la DANA de València: de los “cientos” de cadáveres de Bonaire a la demolición de los pantanos
Los bulos sobre la DANA han inundado las redes sociales desde el primer momento, intensificando el desasosiego entre la ciudadanía y favoreciendo la viralización de contenidos engañosos difundidos por quienes aprovecharon la tragedia como caldo de cultivo. Pseudoperiodistas, usuarios anónimos y políticos ultras –englobados en lo que ha dado en llamarse la 'fachosfera'– no dudaron en imponer una lógica falaz sobre lo que estaba sucediendo en el área metropolitana de València.
Los discursos con tono y voz más emocionales, con forma de “experiencias personales”, esparcían noticias falsas como la de los muertos en el parking del centro comercial Bonaire y provocaban emociones diferenciadas: ira, en el caso de TikTok, y miedo, en el caso de X. Esta es una de las conclusiones extraídas de un reciente estudio sobre Patrones emocionales divergentes en la desinformación en las redes sociales. Un análisis de tweets y tiktoks sobre la DANA en Valencia dirigido por los investigadores de la Universitat Politècnica de València Paolo Rosso e Iván Arcos, junto a Ramón Salaverría, de la Universidad de Navarra, y publicado por el Iberian Digital Media Observatory (IDMO), organismo cofundado por la Comisión Europea en colaboración con el European Digital Media Observatory (EDMO).
“Nos ha impactado cómo se ha jugado con las emociones de la gente a raíz de la desgracia”, explica Rosso, también miembro de la fundación sin ánimo de lucro ValgrAI (Valencian Graduate School and Research Network of Artificial Intelligence), en una conversación telefónica con este medio. A raíz de ese punto de partida, los expertos quisieron analizar los contenidos tanto de la plataforma de TikTok como de la red que controla Elon Musk: “Queríamos analizar qué patrones lingüísticos y qué patrones emocionales se utilizaban en estos vídeos ya detectados como desinformaciones por los verificadores (Maldita.es, Newtral y EFE Verifica) usados ; y por otra parte, clasificar de forma automática para ver si a partir de unas muestras con palabras clave se podía recuperar contenido relacionado con la DANA, pero sin información falsa para pasar una parte de estos ejemplos a los modelos de IA para comprobar si eran capaces de aprender a discriminar”.
En este sentido, el investigador de la UPV insiste en que los fact-checkers de esas empresas suelen estar “desbordados” por la cantidad ingente de informaciones para verificar que circulan por las redes, por lo que el modelo GPT-4o Few-Shot podría ayudar en la automatización del etiquetado de los contenidos y poder “detectar bulos en tiempo real”. “Es una ayuda indudable en su oficio. Nos ha interesado ver hasta qué punto el modelo era capaz de etiquetar algo como bulo o no bulo. Íbamos con expectativas bajas, pero ha sido mejor de lo que esperábamos”, asevera.
Palabras clave como Vito Quiles, manipulaciones y música dramática
De forma manual, los investigadores apuntaron un total de 650 publicaciones para discernir entre contenido veraz y desinformaciones, a través de un método cualitativo (análisis de narrativas, revisión manual de datos y observación de estrategias de desinformación) y cuantitativo (modelos de IA, estadísticas, detección de emociones y métricas de precisión).
Y es que el informe refuerza lo que se viene defendiendo en numerosos estudiosos sobre que las emociones son una estrategia habitual en los discursos falsos, sin embargo, este trabajo añade que es necesario tener en cuenta la forma en la que se opera en cada una de estas plataformas. Además, a través del análisis lingüístico -utilizando el diccionario LIWC- se ha podido demostrar que el contenido contrastado y riguroso usa un lenguaje “más articulado y fáctico”, a diferencia de las desinformaciones, quienes recurren a “manipulaciones, negaciones, palabras perceptuales, música dramática y anécdotas personales”.
Asimismo, en las palabras clave escogidas, Rosso, durante la entrevista, manifiesta que se seleccionaron etiquetas que fueran a causar un impacto entre la sociedad o que pudieran tener contenido engañoso. Vito Quiles, Alvise Pérez o Bonaire son algunas de las empleadas en la extracción de datos. Para ello, se usaron crawlers (rastreadores web que navegan por Internet siguiendo enlaces de una página a otra y las indexan) para extraer el contenido con esas palabras en X y Tik Tok, y tras ello, se evaluó el posible sesgo de la muestra con el Índice de Rareza (Weirdness Index, WI) para verificar si las 'keywords' influían en la selección de datos y comparar el registro con una muestra de control basada en términos más neutros como DANA Valencia.
“Muchos de los mensajes, aparte de suscitar estas emociones entre la ciudadanía, tenían como fin criticar las actuaciones del Gobierno central, más que las de la Generalitat. Eso me ha llamado mucho la atención”, confiesa el investigador de ValgrAI. “Es importante que la gente sea consciente que en momentos vulnerables y de pánico se aprovechan de nuestras emociones”, destaca. El estudio, publicado por Iberifier, será presentado en ICAART 2025 (Oporto), un congreso internacional con expertos en inteligencia artificial que se llevará a cabo entre el 23 y el 25 de febrero de 2025.