Barcelona, (España) 6 abr (EFE).- Un grupo de investigadores, psicólogos y psiquiatras han desarrollado unos algoritmos de Inteligencia Artificial que, analizando textos, imágenes y actividades en la red social Twitter, detectan patrones de comportamiento suicida con un 85 % de precisión.
Se trata del proyecto STOP (Suicide Prevention in Social Platforms), cuyo objetivo es buscar y analizar patrones de conducta suicida aplicando la Inteligencia Artificial en las redes sociales.
El proyecto está dirigido por Ana Freire, investigadora en el Departamento de Tecnologías de la Información y las Comunicaciones de la Universidad Pompeu Fabra (UPF) de Barcelona, y ha contado con la colaboración del Centro de Visión por Computador de la UAB y del Hospital Parc Taulí de Sabadell, en Cataluña (noreste).
Los investigadores resaltan que en España, donde cada año hay unas 3.000 víctimas de suicidios, «el tabú asociado a este fenómeno, la escasa educación en salud mental y el difícil acceso, a veces, a consultas psicológicas ocasiona que personas con problemas mentales no reciban ni un diagnóstico ni un tratamiento adecuado».
La Organización Mundial de la Salud ha calculado que cada suicidio supone un impacto emocional en al menos seis personas del entorno de la víctima.
En este escenario, según los investigadores, que han publicado su contribución basada en técnicas de inteligencia artificial en la revista ‘Journal of Medical Internet Research’, «las redes sociales se han mostrado como un medio eficaz para detectar problemas como la depresión o los trastornos de la conducta alimentaria que, en casos muy extremos, pueden generar ideas suicidas».
Según los investigadores, en Twitter se publican alrededor de 8.000 tuits por segundo, «que contienen información muy valiosa para varios campos, pero también para analizar temas relacionados con la salud mental».
«En nuestro caso, entrenamos algoritmos de inteligencia artificial para que puedan distinguir patrones de alto riesgo y de bajo riesgo de suicidio, con datos etiquetados por expertos en salud mental y completamente anónimos, para respetar la privacidad de los usuarios», explican en su trabajo, que es el primero que trata este problema analizando textos en español mientras tiene en cuenta el historial de publicaciones (tuits) de cada usuario.
La técnica también genera una exhaustiva metodología para recopilar datos relativos al suicidio y analiza imágenes y textos.
Según los investigadores, «la contribución principal de este trabajo es que para el desarrollo de los modelos se exploran imágenes, junto con aspectos que normalmente son tenidos en cuenta por especialistas en el diagnóstico como las interacciones entre usuarios, el análisis de patrones de sueño y la existencia de factores de riesgo».
«Este trabajo nos ha permitido aprender características diferenciales entre los grupos de ‘alto riesgo’ de suicidio y ‘libre de riesgo’ y ver que el primer grupo tiende a hablar más en primera persona y a utilizar negaciones y términos relacionados con sentimientos, entre los que destaca la ansiedad», detallan.
También han observado que suelen tener menor cantidad de amigos (cuentas que siguen), escriben textos con menor cantidad de caracteres y tienen mayor actividad durante los fines de semana y por la noche.
Igualmente, han podido demostrar «que puede existir cierta correlación entre el contenido de las imágenes compartidas en redes sociales con la salud mental del usuario que las comparte», según afirma Jordi González, investigador del Centro de Visión por Computador (UAB), que ha participado con su equipo en el proyecto.
Ricardo Baeza-Yates (UPF) ha resaltado la importancia de algoritmos como el ahora publicado «para encontrar en redes sociales nuevos factores derivados del uso de medios digitales que puedan ayudar a un diagnóstico eficaz y contribuir a que el suicidio deje de ser un tema tabú en nuestra sociedad».
Como proyecto, STOP cuenta con una iniciativa de micromecenazgo para ampliar la investigación a otros problemas de salud mental, como los trastornos de la conducta alimentaria.
EFE
fjn/pll/lml