Los datos de X y Facebook permiten predecir aumentos en los delitos de odio
ACTUALIDAD
![Dispositivos con Facebook y X.](https://img.lavdg.com/sc/KjOZ1Wq9UvNPz6uo5PPJjU6EsEo=/480x/2024/10/16/00121729079641910288872/Foto/A_20240921_132522000.jpg)
Una investigación de la Universidad de Salamanca relaciona la publicación de mensajes discriminatorios con un incremento posterior en denuncias policiales
16 oct 2024 . Actualizado a las 16:55 h.Anticipar un incremento de los delitos de odio en España es posible analizando datos de las redes sociales Facebook y X. Este es el principal hallazgo de una investigación de la Universidad de Salamanca, que utilizó técnicas de inteligencia artificial para analizar de forma masiva y automatizada las publicaciones.
El estudio, publicado en la revista del grupo Nature Humanities and Social Sciences Communications, incluyó los mensajes en hasta 48 modelos matemáticos para pronosticar dos tipos de crímenes de odio: dirigidos hacia migrantes y hacia la comunidad LGTBI. El mejor modelo permitía explicar hasta en un 64% el número de denuncias agregadas cada día por motivos racistas o xenófobos.
La investigación, pionera en España, modeló los datos de denuncias policiales de crímenes de odio reportados en el territorio nacional entre el 2016 y el 2018, con mensajes tóxicos y de odio publicados en las mismas fechas en X y en Facebook.
Posible herramienta para anticipar delitos de odio
Los resultados muestran no sólo una correlación temporal entre ambos fenómenos, sino que ha podido generar una serie de modelos predictivos que permiten anticipar con cierta precisión cuándo aumentarán las denuncias.
Tras obtener los resultados, el equipo de investigadores considera que los contenidos en redes sociales pueden ser un caldo de cultivo para la perpretración de actos violentos. «Aunque el estudio no establece una relación de causalidad directa, creemos que el lenguaje inflamatorio en redes sociales podrá ser un indicador clave para detectar potenciales actos de crímenes de odio», explica Carlos Arcila Calderón, profesor titular de la Universidad de Salamanca e investigador principal del trabajo, en declaraciones recogidas por Efe.
Según Tomás Fernández Villazala, director de la ONDOD y firmante del estudio, la monitorización de los mensajes tóxicos y del discurso de odio en redes sociales podría jugar un papel crucial en la identificación de riesgos de violencia. El autor explica que, aunque en este estudio los datos de Facebook aportaron más información que los de X, la monitorización de diferentes fuentes puede permitir tener un panorama más claro sobre el posible aumento de denuncias en las comisarías por personas vulnerables.
Entre los principales hallazgos, el estudio permitió saber que los modelos funcionan mejor con datos nacionales y no locales, con agregaciones semanales y no diarias, y con datos relacionados con los delitos hacia migrantes en comparación con los dirigidos hacía la comunidad LGTBI. Además, los indicadores básicos del denominado lenguaje tóxico (amenazas, insultos, ataques, etc.) también dieron mejores resultados que los indicadores específicos de odio en los modelos.
Según Arcila Calderón, estos hallazgos coinciden con estudios similares en Estados Unidos y Alemania, pero son inéditos por la calidad de los datos procesados, obtenidos gracias al acuerdo entre investigadores de la Universidad de Salamanca con la ONDOD. Gracias a él, los investigadores pudieron acceder a datos localizados de los crímenes denunciados, así como al análisis computacional de los mensajes con grandes modelos del lenguaje y al uso de algoritmos avanzados para generar los modelos predictivos que se ejecutaron en el Centro de Supercomputación de Castilla y León (SCAYLE).