Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Una inteligencia artificial de la Universitat Politècnica de València advierte que un 50% del discurso político es tóxico

Vista general del pleno de las Corts Valencianes.

Toni Cuquerella

València —
23 de marzo de 2025 23:00 h

0

De los discursos analizados de 10 sesiones de las Corts Valencianes, la mitad dieron una puntuación de toxicidad superior al 50%. Así lo han plasmado las conclusiones del estudio realizado por el equipo del Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN) de la Universitat Politècnica de València (UPV).

El estudio ha desarrollado una metodología con un sistema de inteligencia artificial modular que es capaz de identificar con una mayor precisión la ironía, la crítica mordaz o el sarcasmo para detectar cuándo el lenguaje político cruza el umbral de la toxicidad. El estudio ha abarcado 875 muestras de las sesiones,  de las cuales 435 tenían una puntuación de toxicidad superior al 50%. 

El artículo ha sido expuesto bajo el título 'IA enriquecida en sentimientos para la detección de discursos tóxicos; Un caso de estudio de discursos políticos en las Corts Valencianes', en la conferencia internacional de agentes e inteligencia artificial (ICAART) 2025 celebrada en la ciudad de Oporto. El equipo de investigadores ha estado formado por los miembros del grupo PROS, Antoni Mestre, Joan Fons, Manoli Albert, Vicente Pelechano, y la investigadora del departamento de informática de la Universitat de València Miriam Gil, junto al investigador de la Università degli Studi del Sannio en Benevento (Italia) Franccesco Malafarina. Son los desarrolladores de esta metodología cuyas conclusiones han presentado recientemente.

Moderación automatizada

El estudio propone un enfoque innovador que mejora los sistemas tradicionales de detección de discurso tóxico al introducir una 'zona de confusión'. “En lugar de etiquetar un mensaje como simplemente tóxico o no tóxico, la IA detecta los casos más ambiguos y los somete a un análisis de sentimiento que permite evaluar mejor el tono emocional del discurso”, explica el investigador de VRAIN de la UPV Antoni Mestre. 

Mientras que los resultados, sin la zona de confusión, alcanzan una precisión del 80,35%, cuando se incorpora la capa de análisis de sentimiento a la detección de discursos tóxicos, sobre todo en contextos políticamente cargados y lingüísticamente complejos, como el de las Corts, la precisión mejora hasta el 87,89%.  

“Nuestro trabajo ofrece una visión más matizada del lenguaje político. Y abre nuevas posibilidades para la moderación automatizada de contenidos y el análisis del debate público con herramientas más sofisticadas y justas. Su aplicación en los parlamentos permitiría a sus presidentes moderar el debate de manera más equitativa y precisa, garantizando un discurso más respetuoso y constructivo”, concluye Antoni Mestre.

Etiquetas
stats