(14 de noviembre, 2023).  Microsoft acaba de presentar una patente para una aplicación de terapia con IA. ¿Cómo te hace sentir eso?

Según la patente, el terapeuta de IA, descrito como un «método y aparato para proporcionar atención emocional en una sesión entre un usuario y un agente conversacional», está diseñado para proporcionar a los usuarios apoyo emocional, analizar sus sentimientos y almacenar cuidadosamente la información del usuario y las conversaciones, a fin de poder construir una «memoria» del usuario, su vida y sus desencadenantes emocionales.

El modelo aparentemente puede procesar tanto imágenes como texto y, lo que es importante, parece estar diseñado como un espacio general para que el usuario pueda hablar sobre su vida, más que como un servicio de emergencia.

A medida que la IA recopila más información sobre sus usuarios, la patente sugiere que puede comenzar a detectar ciertos indicios emocionales. En función de estos indicios, podría hacer algunas preguntas de sondeo e incluso, en algunos casos, hacer sugerencias sobre cómo el usuario podría abordar sus problemas.

Pero Microsoft parece creer que la IA también puede realizar un psicoanálisis más profundo. Según una figura, el usuario también tiene la opción de realizar una «prueba psicológica explícita», que según Microsoft será evaluada por un «algoritmo de puntuación predefinido por psicólogos o expertos en ámbitos psicológicos».

Ciertamente, no sería la primera vez que se intenta aplicar la IA a la atención sanitaria mental. Al parecer, existe algo llamado Woebot, y ¿quién podría olvidar la desastrosa incursión de la Asociación Nacional de Trastornos de la Alimentación en los servicios de chatbot? También es cierto que los humanos ya han recurrido a varios bots no específicos de la terapia para obtener compañía y apoyo, y muchas personas han desarrollado profundos vínculos personales con esas IAs.

Sin embargo, cabe destacar que en varios casos, estas interacciones han terminado causando mucho más daño que bien. En abril, se alegó que un hombre belga con ansiedad climática severa se suicidó después de buscar el apoyo de un chatbot. Y en 2021, un joven de 19 años intentó matar a la difunta reina Isabel II, sí, en serio, con una ballesta después de encontrar apoyo y aliento para ejecutar el complot mortal de su novia de IA.

Y en otros casos, en casos notablemente menos extremos, algunos usuarios de aplicaciones de acompañamiento de chatbot han informado sentirse angustiados cuando sus compañeros de chatbot y amantes han sido desmantelados. Si la IA de Microsoft desarrollara relaciones cercanas con los usuarios y luego se cerrara por cualquier motivo, no sería la primera vez que Microsoft eliminara un bot, podríamos imaginar que los clientes de la IA de terapia pasarían por una experiencia dolorosa similar.

También hay algunas advertencias de responsabilidad más obvias aquí. Para que una aplicación como esta sea funcional y segura, Microsoft deberá instalar algunos guardamanos de IA a prueba de balas. Y, al igual que un terapeuta humano, el bot probablemente debería estar obligado a informar el comportamiento peligroso o inquietante a las autoridades o a servicios de salud especiales.

Y aún así, independientemente de sus guardamanos, queda por ver si alguna IA actual tendrá el matiz emocional necesario para lidiar con situaciones complicadas y a menudo frágiles relacionadas con la salud mental y la enfermedad. ¿Qué pasa si le dice algo incorrecto a alguien que está luchando, o simplemente no dice lo suficiente?

Es difícil imaginar que un bot pueda ofrecerle a alguien la misma empatía y apoyo que un buen terapeuta humano, pero, según esta patente, aparentemente eso aún está por verse.

___________________________________________
Con información de Futurism. Imagen: MM.

Verified by MonsterInsights