Una herramienta capaz de extraer nuestras emociones

Investigadores diseñaron un sistema de cómputo que permite detectar y extraer las emociones que siente una persona al leer textos digitales

Diego Torija

  · lunes 20 de junio de 2022

Sus utilidades abarcan desde el descubrimiento rápido de mensajes de odio, hasta la detección de problemas como la depresión / Foto: Cuartoscuro

Investigadores de la Universidad Politécnica de Madrid lograron diseñar una herramienta computacional que permite detectar y extraer las emociones que siente una persona al leer textos digitales, y lo hace utilizando un sofisticado sistema que se basa en la Inteligencia Artificial (IA).

Los investigadores señalaron que esto no tiene nada que ver con espiar, y aseguraron que esta extracción de emociones es un paso muy importante hacia una inteligencia artificial más completa, además de que será capaz de pensar como lo haría un ser humano.

Dijeron que sus utilidades abarcan desde el descubrimiento rápido de mensajes de odio o también el análisis de la propaganda, hasta la detección de problemas importantes como lo es una depresión.

Según la agencia EFE, esta herramienta que fue bautizada como “DepecheMood++”, utiliza modelos de procesamiento del lenguaje natural así como de IA para poder realizar las mediciones precisas de las emociones que se expresan al momento de leer un texto, y es así como ofrece un informe completo que es analizado posteriormente.

El grupo de sistemas inteligentes de la universidad también colaboró en este proyecto y además está implicado en la iniciativa europea “Participation” que utiliza la IA como objeto para estudiar cómo se distribuyen los contenidos extremistas en internet y en cómo llegan a afectar a la sociedad.

El investigador Oscar Araque señaló que esta herramienta consiste en un léxico, es decir un vocabulario anotado que expresa la emoción que se le asocia a cada palabra, y también ha detallado que se trata de un recurso muy extendido en el campo del procesamiento del lenguaje natural para aportar una subjetividad.

“Enseñamos al sistema cómo expresamos las emociones humanas”, dijo. Y aseveró que su equipo utiliza algoritmos de aprendizaje, así como redes neuronales. Aunque el investigador insiste en que se trata de un recurso que sólo se está utilizando para la investigación y que incluso ya han rechazado varias propuestas de empresas para obtener un beneficio económico.

Aunque este aparato se puede utilizar para conocer las emociones que expresan los usuarios, por ejemplo en las redes sociales, el investigador aseveró que nada se usa para espiar, incluso ha alertado del riesgo que siempre tienen los sesgos en todos los sistemas de inteligencia artificial así como en las consecuencias que pueden tener en la vida cotidiana de las personas.

Señaló que es relevante analizar de una forma automática las emociones que los usuarios expresan, esto sin necesidad de que haya una persona haciendo específicamente esa labor y citó como un ejemplo a una empresa que tenga una gran actividad en redes sociales y quiera saber lo que opinan sus clientes sin la necesidad de recurrir a un resumen para analizar los miles de comentarios que puede recibir cada día, esa es la tarea que haría la herramienta.

Esta herramienta es capaz de detectar hasta seis emociones diferentes, que incluyen el miedo, la diversión, felicidad, tristeza, molestia y enfado; lo hace con un recurso que de momento se ha desarrollado en dos idiomas que son el inglés y el italiano.

El investigador explicó que el proyecto “Participation” se dedica a estudiar la radicalización y su expansión en el internet pero sobre todo en los usuarios más jóvenes y señaló que los estudios psicológicos y sociales apuntan que las emociones desempeñan un rol básico a la hora de diseminar ese tipo de contenidos.

Para culminar, el investigador expresó que generar una pieza de desinformación es relativamente fácil, pero analizar y argumentar por qué esa información es falsa es mucho más costoso, e hizo énfasis en que más allá de la utilidad que pueda tener para detectar el lenguaje de odio o para analizar la propaganda, esta herramienta puede servir para analizar los mensajes de personas que están padeciendo una depresión e incluso para recomendarles un buen tratamiento.



TE RECOMENDAMOS EL PODCAST⬇️

Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music



Lee también otros contenidos de Normal ⬇️