Selecciona tu emisora

Ir a la emisora
PerfilDesconecta
Buscar noticias o podcast

Los psicólogos españoles ya luchan contra los chatbot que dicen ser terapeutas

Se diseñan de forma muy rápida con aplicaciones de inteligencia artificial, se insertan en webs y muchas personas acaban -engañosamente- hablando con ellos, creyendo que son personas reales

Un chatbot creado con una inteligencia artificial / Andriy Onufriyenko

Un chatbot creado con una inteligencia artificial

"Como máquina, la IA no tiene emociones, y si no las tiene, no puede interpretarlas". Así de tajante se muestra Marian García, Directora en Orbium Desarrollo y psicóloga especializada en el tratamiento de adicciones. Ya se ha encontrado con varios pacientes que consultan habitualmente aplicaciones de este tipo, cuyos nombres no mencionaremos en este texto para evitar a posibles pacientes su localización.

"Los que llevamos toda la vida interpretando las emociones de nuestros pacientes, hablando durante horas con ellos, mirando hasta la tensión de sus músculos de la cara, o si su mirada va hacia arriba o hacia abajo, todavía nos confundimos muchas veces", asegura la veterana psicóloga. "Imagina si se confundirá una máquina", concluye.

Marc Masip, experto en adicciones a las nuevas tecnologías: "Me daría mucha pena que los jóvenes perdieran criterio propio"

Marc Masip, experto en adicciones a las nuevas tecnologías: "Me daría mucha pena que los jóvenes perdieran criterio propio"

00:00:0014:11
Descargar

El código iframe se ha copiado en el portapapeles

Por eso, señala que "una IA no podrá llegar al paciente igual que llegamos nosotros". Los humanos "tenemos espiritualidad, valores, criterios éticos, de los que la máquina carece", señala. Es la opinión generalizada de los psicólogos en España pero en internet, personas sin escrúpulos aprovechan las nuevas funcionalidades de la IA para colocar en webs fácilmente accesibles chatbots -IAs que conversan contigo, que simulan incluso emociones- que actúan como terapeutas.

Por su parte, Isabel Aranda, vocal del colegio de psicología de Madrid lo resume de una manera muy sencilla: "Cuando tu hablas con un psicólogo hay una conexión humana. Con un bot, hay interacción pero no hay conexión".

Aranda cree que un chatbot es "confirmante". Es una máquina que "tiene sesgo de confirmación, no cuestiona como te sientes, ni te confronta", denuncia. Por tanto, dicho muy llanamente, "te meterá más en los síntomas que les estás contando en vez de sacarte". El robot, asegura, "funciona con respuestas estereotipadas que ha aprendido. Y te pase lo que te pase te va a decir lo que que ya se sabe".

La recomendación del colegio, que también cree que "tiene que haber una legislación" es que "siempre hay que acudir a un un humano que sea psicólogo colegiado" porque si no el paciente corre el riesgo de sufrir un "exacerbamiento de procesos latentes".

En Estados Unidos, la Asociación de Psicología APA ha pedido a los legisladores recientemente que se pongan en marcha contra los riesgos que representan los chatbots. En una intervención pública en la comisión federal de Comercio de EEUU, Arthur Evans Jr., director general de la APA, denunció que estas IAS están diseñadas "para reforzar en lugar de cuestionar el pensamiento del usuario" y que eso podría inducir, incluso, a personas vulnerables a hacerse daño a sí mismas o a otros. Puso dos ejemplos en los que adolescentes recurrieron a "psicólogos virtuales" y sus familias acabaron denunciando a la plataforma que los había creado. Uno acabó en un intento de suicidio. En otro, un chaval autista se volvió agresivo con su familia.

Un estudio mundial sobre el suicidio dice que bajan en los últimos 30 años, pero que hay un fallecido cada 43 segundos

Un estudio mundial sobre el suicidio dice que bajan en los últimos 30 años, pero que hay un fallecido cada 43 segundos

00:00:0000:54
Descargar

El código iframe se ha copiado en el portapapeles

Evans cuenta que estos chatbots "no desafiaban creencias peligrosas de los usuarios sino que las alentaban". Imaginen a un psicólogo humano diciéndole a un posible suicida que su idea es una como otra cualquiera sobre la que se puede discutir. "Hace una década, era evidente que hablabas con una máquina. Hoy en día, no lo es tanto, lo que aumenta el riesgo”, dijo Evans.

Marian García dice que "ante esta situación Europa y España tienen que legislar". No queda otra, dice. "Igual que no puedes tomarte una aspirina en un momento dado porque tiene contraindicaciones, esto tiene que ser lo mismo", asegura.

Mientras llega esta legislación, la realidad es que este campo está completamente descontrolado en internet. Es verdad que los primeros chatbots terapéuticos fueron alimentados con guiones estructurados por expertos. La llegada de la IA generativa ha cambiado el panorama y ya hay varias aplicaciones que diseñan "personas con las que hablar". No mencionaremos aquí ninguna de ellas. Son apps que fueron concebidas para el entretenimiento -crear una persona con la que hablar- pero con ellas se pueden crear personas que se presentan como "terapeutas" o "psicólogos" y que hablan contigo dando consejos que nadie controla.

Lo más peligroso es un concepto que se maneja en el sector de la IA: la “adulación”. Consiste, básicamente, en que el chatbots está diseñado para reflejar y reforzar las opiniones del usuario y así "caerle bien".

El chatbot Tessa, desarrollado por la Asociación Nacional Americana de Trastornos Alimentarios fue retirado en 2023 tras proporcionar consejos peligrosos a personas con problemas de salud mental sobre pérdida de peso.

Javier Ruiz Martínez

Javier Ruiz Martínez

Redactor de temas de sociedad, ciencia e innovación en la SER. Trabajo en el mejor trabajo del mundo:...

 

Directo

  • Cadena SER

  •  
Últimos programas

Estas escuchando

Hora 14
Crónica 24/7

1x24: Ser o no Ser

23/08/2024 - 01:38:13

Ir al podcast

Noticias en 3′

  •  
Noticias en 3′
Últimos programas

Otros episodios

Cualquier tiempo pasado fue anterior

Tu audio se ha acabado.
Te redirigiremos al directo.

5 "

Compartir