Descubren cómo detectar de manera automática contenidos orientados a radicalizar

Investigadores de la Universidad Politécnica de Madrid desarrollan un sistema de aprendizaje automático para la detección de contenido radical en las redes sociales y la prensa que es capaz de entender las emociones y los valores morales.

15.04.24

Actualmente los modelos de inteligencia artificial son capaces de generar e interpretar contenido a gran escala. Sin embargo, emplear este tipo de modelos para detectar de manera automática contenido dañino para los usuarios o la sociedad es un reto que todavía no se ha resuelto. Este es el objetivo de varios investigadores del Grupo de Sistemas Inteligentes (GSI) de la Universidad Politécnica de Madrid (UPM).

Como parte del proyecto de investigación Participation, en el que colaboran distintas instituciones de varios países europeos como la Universidad de Roma Tre, la Universidad de Middlesex y la policía polaca, se han desarrollado varios modelos de inteligencia artificial con el objetivo de detectar, de manera automática, contenido radical que pueda resultar dañino para la sociedad. Este tipo de contenido es, normalmente, propaganda dirigida a países de occidente que busca radicalizar a ciudadanos susceptibles. Detectar y detener el flujo de propaganda hacia Europa es una de las prioridades de la Comisión Europea, y a la que se dedican grandes recursos económicos y tecnológicos. El proyecto Participation, dotado con casi 3 millones de euros, trabaja directamente con la detección de contenido propagandístico, analizando el lenguaje y las narrativas empleadas, así como un sistema de detección y monitorización completamente automático.

Imagen generada con Inteligencia Artificial por Óscar Araque

La investigación realizada en este proyecto trata de modelar la utilización de emociones y valores morales para despertar sentimientos de radicalización en los lectores. De esta manera, los modelos de inteligencia artificial son capaces de comprender las emociones y valores morales expresados y, a partir de esa información, detectar si este contenido está orientado a radicalizar a los lectores. Esto se consigue empleando técnicas de Procesamiento de Lenguaje Natural y Aprendizaje Automático, dos subcampos de la Inteligencia Artificial.

“El uso de este tipo de sistemas se está revelando crucial a la hora de controlar el contenido dañino, cada vez más común en redes sociales y otros foros”, destaca Óscar Araque, profesor de la de la Escuela Técnica Superior de Ingenieros de Telecomunicación (ETSIT) de la UPM. “Esto es una necesidad acuciante, que la Unión Europea considera una prioridad de cara a la futura sociedad digital.”

El Grupo de Sistemas Inteligentes, como parte de su intensa actividad investigadora, trabaja en multitud de proyectos en los que se desarrollan sistemas basados en inteligencia artificial, en colaboración con miembros nacionales e internacionales. Un ejemplo de ello es la financiación recibida por el proyecto AMOR, cuyo objetivo es desarrollar sistemas de asistencia al ciudadano para el consumo de contenido de una manera responsable e informada. Para ello, se van a emplear robots inteligentes y un sistema de hologramas, que permitirá acceder a la información de una manera novedosa y moderna.

P. A. D. Real and O. Araque, "Contextualization of a Radical Language Detection System Through Moral Values and Emotions," in IEEE Access, vol. 11, pp. 119634-119646, 2023, doi: 10.1109/ACCESS.2023.3326429