Lo que la tecnología está haciendo para ayudar a la prevención del suicidio

Aunque no es posible prevenir todos los suicidios, hay muchas cosas que pueden ayudar a reducir el riesgo. Y algunas de ellas están tan cerca como tu smartphone.

Los sistemas de salud, las empresas tecnológicas y las instituciones de investigación están explorando cómo pueden ayudar en la prevención del suicidio. Buscan aprovechar la tecnología en general -y la inteligencia artificial (IA) en particular- para captar señales sutiles de riesgo de suicidio y alertar a un humano para que intervenga.

"La tecnología, aunque no está exenta de desafíos, ofrece increíbles oportunidades", afirma la doctora Rebecca Bernert, directora y fundadora del Laboratorio de Investigación para la Prevención del Suicidio de la Facultad de Medicina de la Universidad de Stanford, en Palo Alto (California).

Por ejemplo, Bernert afirma que si la IA puede señalar a los pacientes de riesgo basándose en sus historiales médicos, sus médicos de atención primaria podrían estar mejor preparados para ayudarles. Aunque los profesionales de la salud mental están especialmente formados para ello, los estudios muestran que entre las personas que mueren por suicidio, alrededor del 45% acude a su médico de atención primaria en su último mes de vida. Sólo el 20% acude a un profesional de la salud mental.

Estos son algunos de los avances tecnológicos que se están desarrollando o que ya se están produciendo.

Pistas de tu voz

Investigadores del Instituto Politécnico de Worcester (Massachusetts) están construyendo un programa basado en la IA llamado EMU (Early Mental Health Uncovering) que extrae datos de un smartphone para evaluar el riesgo de suicidio del usuario del teléfono.

Esta tecnología aún está en desarrollo. Podría formar parte de una aplicación de salud que podría descargarse en el teléfono, tal vez por sugerencia del médico.

Después de conceder todos los permisos necesarios, la aplicación desplegaría la IA para supervisar su riesgo de suicidio a través de su teléfono. Entre las funciones incluidas está la opción de hablar en el analizador de voz de la aplicación, utilizando un guión proporcionado o autorizando a la aplicación a grabar segmentos de llamadas telefónicas. La aplicación puede detectar rasgos sutiles en la voz que pueden indicar depresión o pensamientos suicidas.

"Hay características conocidas de la voz que los seres humanos no pueden detectar, pero que la IA sí puede porque ha sido entrenada para hacerlo en grandes conjuntos de datos", dice el psicólogo Edwin Boudreaux, PhD. Es el vicepresidente de investigación del Departamento de Medicina de Urgencias de la Facultad de Medicina de UMass Chan.

"Puede tomar la voz y todas estas otras fuentes de datos y combinarlas para hacer una predicción sólida sobre si tu estado de ánimo está deprimido y si has tenido ideas suicidas", dice Boudreaux, que no tiene ninguna participación financiera en la empresa que hace esta aplicación. "Es como una biopsia telefónica".

Los datos del smartphone, con el permiso del usuario, podrían utilizarse para enviar alertas a los propios usuarios del teléfono. Esto podría incitarles a buscar ayuda o a revisar su plan de seguridad. O tal vez podría alertar al proveedor de atención médica de la persona.

En la actualidad, las aplicaciones no requieren la aprobación del gobierno para respaldar sus afirmaciones, así que si estás usando alguna aplicación relacionada con la prevención del suicidio, háblalo con tu terapeuta, psiquiatra o médico.

Compartir la experiencia

Google trabaja para ofrecer a las personas en riesgo de suicidio recursos como el National Suicide Prevention Lifeline. También ha compartido su experiencia en IA con The Trevor Project, una línea de ayuda al suicidio LGBTQ, para ayudar a la organización a identificar a las personas que llaman con mayor riesgo y conseguirles ayuda más rápidamente.

Cuando una persona en crisis se pone en contacto con el Proyecto Trevor a través de un mensaje de texto, un chat o un teléfono, responde a tres preguntas de admisión antes de que se le ponga en contacto con el servicio de ayuda en caso de crisis. Google.org Fellows, un programa benéfico gestionado por Google, ayudó al Proyecto Trevor a utilizar ordenadores para identificar palabras en las respuestas a las preguntas de admisión que estaban vinculadas al riesgo más alto e inminente.

Cuando las personas en crisis utilizan algunas de estas palabras clave al responder a las preguntas de admisión del Proyecto Trevor, su llamada pasa al frente de la cola para recibir apoyo.

Una cultura de dureza

Puede que ya sepas que los suicidios son un riesgo especial entre los profesionales militares y los policías. Y sin duda has oído hablar de los suicidios entre los profesionales de la salud durante la pandemia.

Pero hay otro campo con un alto índice de suicidios: la construcción.

Los trabajadores de la construcción tienen el doble de probabilidades de morir por suicidio que las personas de otras profesiones y 5 veces más probabilidades de morir por suicidio que por una lesión relacionada con el trabajo, según los CDC. Los elevados índices de lesiones físicas, el dolor crónico, la inestabilidad laboral y el aislamiento social debido a los largos desplazamientos por el trabajo pueden influir.

JobSiteCare, una empresa de telesalud diseñada para los trabajadores de la construcción, está poniendo a prueba una respuesta de alta tecnología al suicidio en el sector. La empresa ofrece atención telesanitaria a los trabajadores de la construcción que se lesionan en las obras a través de tabletas guardadas en una taquilla en el remolque médico de la obra. Ahora está ampliando esa atención para incluir la atención a la salud mental y la respuesta a la crisis.

Los trabajadores pueden obtener ayuda en segundos a través de la tableta del remolque. También tienen acceso a una línea de atención telefónica 24 horas al día, 7 días a la semana, y a una atención de salud mental continua a través de la telesalud.

"La telesalud ha sido uno de los grandes éxitos de la telemedicina", dice el doctor Dan Carlin, fundador y director general de JobSiteCare. "En la construcción, donde tu trabajo te lleva de un sitio a otro, la telemedicina te seguirá allá donde vayas".

App del plan de seguridad contra el suicidio

La app Jaspr tiene como objetivo ayudar a las personas tras un intento de suicidio, empezando cuando aún están en el hospital. El funcionamiento es el siguiente.

Un sanitario empieza a utilizar la app con el paciente en el hospital. Juntos elaboran un plan de seguridad para evitar un futuro intento de suicidio. El plan de seguridad es un documento que el profesional sanitario elabora con el paciente para ayudarle a afrontar una futura crisis de salud mental y los factores de estrés que suelen desencadenar sus pensamientos suicidas.

El paciente se descarga la aplicación de acompañamiento en casa de Jaspr. Puede acceder a su plan de seguridad, a herramientas para manejar una crisis basadas en las preferencias señaladas en su plan de seguridad, a recursos de ayuda durante una crisis y a vídeos alentadores de personas reales que han sobrevivido a un intento de suicidio o han perdido a un ser querido por el suicidio.

Y si la IA se equivoca?

Siempre existe la posibilidad de que la IA se equivoque al juzgar quién está en riesgo de suicidio. Es tan buena como los datos que alimentan su algoritmo.

Un "falso positivo" significa que se identifica a alguien como en riesgo, pero no lo es. En este caso, eso significaría señalar incorrectamente a alguien como en riesgo de suicidio.

Con un "falso negativo", alguien que está en riesgo no es señalado.

El riesgo de que los falsos negativos y los falsos positivos sean perjudiciales es demasiado grande para utilizar la IA para identificar el riesgo de suicidio antes de que los investigadores estén seguros de que funciona, dice Boudreaux.

Señala que Facebook ha utilizado la IA para identificar a los usuarios que podrían estar en riesgo inminente de suicidio.

Meta, la empresa matriz de Facebook, no respondió a la solicitud de comentarios de los médicos sobre su uso de la IA para identificar y abordar el riesgo de suicidio entre sus usuarios.

Según su sitio web, Facebook permite a los usuarios informar de publicaciones preocupantes, incluidos los vídeos de Facebook Live, que pueden indicar que una persona se encuentra en una crisis relacionada con el suicidio. La IA también analiza las publicaciones y, cuando lo considera apropiado, hace que la opción de denunciar la publicación sea más prominente para los usuarios. Independientemente de que los usuarios denuncien una publicación, la IA también puede escanear y marcar las publicaciones de Facebook y los vídeos en directo. Los miembros del personal de Facebook revisan las publicaciones y los vídeos marcados por los usuarios o por la IA y deciden cómo tratarlos.

Pueden ponerse en contacto con la persona que ha creado la publicación para aconsejarle que acuda a un amigo o a una línea de ayuda en caso de crisis, como la National Suicide Prevention Lifeline, que este mes ha lanzado su número de tres dígitos 988. Los usuarios pueden ponerse en contacto con las líneas de crisis directamente a través de Facebook Messenger.

En algunos casos, cuando una publicación indica un riesgo urgente, Facebook puede ponerse en contacto con el departamento de policía cercano al usuario de Facebook en crisis potencial. A continuación, se envía un agente de policía a la casa del usuario para que compruebe su estado de salud.

La plataforma de redes sociales TikTok, cuyos representantes también se negaron a ser entrevistados para este artículo pero proporcionaron información de fondo por correo electrónico, sigue protocolos similares. Estos incluyen la conexión de los usuarios con las líneas telefónicas de crisis y la notificación de las publicaciones urgentes a las fuerzas del orden. TikTok también proporciona números de teléfono de emergencia y otros recursos de crisis en respuesta a las búsquedas relacionadas con el suicidio en la plataforma.

Preocupación por la privacidad

La posibilidad de que las plataformas de redes sociales se pongan en contacto con la policía ha suscitado críticas de expertos en privacidad y también de expertos en salud mental como Boudreaux.

"Es una idea terrible", dice. "Facebook lo desplegó sin que los usuarios supieran que la IA estaba operando en segundo plano y cuáles serían las consecuencias si la IA identificaba algo. Enviar a un agente de policía sólo podría agravar la situación, sobre todo si eres una minoría. Además de ser vergonzoso o potencialmente traumatizante, disuade a la gente de compartir porque ocurren cosas malas cuando se comparte."

La preocupación por la privacidad es el motivo por el que el algoritmo que podría enviar las publicaciones de Facebook a las fuerzas del orden está prohibido en la Unión Europea, según el Journal of Law and the Biosciences.

Las consecuencias para las personas falsamente identificadas como de alto riesgo, explica Boudreaux, dependen de la forma en que la organización se relacione con la persona supuestamente en riesgo. Una llamada potencialmente innecesaria de un profesional de la salud puede no causar el mismo daño que una visita innecesaria de la policía.

Si usted o alguien que conoce está pensando en el suicidio, puede ponerse en contacto con el National Suicide Prevention Lifeline. En los Estados Unidos, puedes llamar, enviar un mensaje de texto o chatear al 988 para comunicarte con la Línea Nacional de Prevención del Suicidio a partir del 16 de julio de 2022. También puede llamar a la línea de vida en su número original, 800-273-8255. La ayuda está disponible 24 horas al día, 7 días a la semana, en inglés y español.

 

 

 

Hot