ChatGPT y autismo

ChatGPT es un chatbot de inteligencia artificial (IA) desarrollado por OpenAI y lanzado en noviembre de 2022. El nombre ChatGPT combina «Chat», que significa «charlar» y que hace referencia a su funcionalidad de chatbot, un sistema informático semiautónomo de conversación, y «GPT», que significa Generative Pre-trained Transformer, un tipo de «LLM» o gran modelo de lenguaje. Un gran modelo de lenguaje o lenguaje de gran tamaño es un sistema informático de lenguaje que consta de una red neuronal con muchos parámetros que ha sido entrenado con grandes cantidades de texto sin etiquetar mediante aprendizaje supervisado por el propio sistema o con el apoyo de un experto.

Muchas personas autistas se esfuerzan por mostrar las respuestas sociales y el lenguaje corporal que esperan las personas neurotípicas. Este proceso se conoce como camuflaje o enmascaramiento, pero es un trabajo agotador y, al no dominar los detalles más sutiles, pueden sufrir malentendidos, ansiedad y dificultades en la interacción social. Algunas personas autistas han descubierto un compañero de conversación que sirve para practicar diálogos, que no se cansa y que no se da cuenta de un posible desajuste con el lenguaje gestual y corporal: ChatGPT.

Las personas autistas utilizan ChatGPT para conversaciones terapéuticas, para generar lluvia de ideas sobre un tema que les interesa o como sucedáneo de un interlocutor. Para algunos, es un lugar donde charlar sobre sus intereses cuando los demás se aburren o donde elaborar guiones sociales que les ayuden a sortear conflictos en la vida cotidiana. También es un nuevo recurso al que acudir en busca de apoyo. A diferencia de un terapeuta o un trabajador social, el bot está siempre disponible y no factura por horas.

ChatGPT está también actuando como puente entre personas autistas y personas neurotípicas para generar un punto de encuentro, un lenguaje común. El lenguaje generado por ordenador es fácilmente comprensible para las dos partes y usa expresiones sencillas, bien organizadas y que evitan los términos confusos y los dobles sentidos.

Hay otro factor curioso y es que a muchos autistas les han dicho que hablan como robots o como extraterrestres. Cuando ChatGPT salió a la luz, muchos autistas se dieron cuenta de que esa herramienta informática hablaba como uno de ellos, de una forma lógica y concreta, sin metáforas ni sesgos.

Un ejemplo que contaba la página Wired era el de una estudiante universitaria que se enfrentó por primera vez en su vida a la dinámica de vivir en un piso compartido. Cuando discutió con uno de sus compañeros, tuvo problemas para expresar sus emociones pues normalmente se queda bloqueada en esas situaciones, pero con ChatGPT pudo ensayar una conversación y probar formas de expresar sus ideas y sentimientos. Evitó tener que pedir ayuda a sus padres por lo que en este caso la IA no fue tanto una fuente de datos o generación de textos, sino una herramienta de autonomía, de independencia personal.

El autismo afecta a las personas de formas muy diversas y cada individuo puede tener necesidades distintas. El autismo es un trastorno de espectro y cada autista puede tener necesidades muy diferentes. Para algunos, ChatGPT puede ser muy útil y para otros, algo sin sentido. El punto interesante es que una cosa que comparten las personas con autismo son las dificultades para la interacción social, ya que es un criterio básico de diagnóstico y ChatGPT puede ser un buen sparring, una forma de ensayar, de practicar, de mejorar.

Utilizar un chatbot para ayudar en la comunicación puede parecer poco convencional, pero encaja con algunas ideas actuales que se utilizan en trabajo social para ayudar a las personas a ser más independientes, y que combinan las tecnologías y la perspectiva comunitaria. Hablamos de empoderar a las personas y ayudarlas a ser plenamente autónomas y a experimentar el éxito en sus propios términos. Una herramienta accesible como un bot de inteligencia artificial generativa puede ayudar a llenar el vacío que deja el acceso intermitente a servicios de salud mental como son las terapias y la poca empatía que tenemos a menudo los neurotípicos para ayudar a las personas neurodiversas.

Aun se desconoce en gran medida el impacto de ChatGPT con fines terapéuticos. Es demasiado nuevo. La flexibilidad del chatbot también conlleva algunos problemas no resueltos. Puede producir respuestas inapropiadas, impredecibles y a menudo inventadas, y se basa en parte en información personal obtenida sin permiso, lo que plantea problemas de privacidad. Sin embargo, es lógico pensar que nuevas generaciones del programa irán mejorando las prestaciones y solucionando en parte al menos estos problemas.

Como para tantas otras personas, los autistas pueden encontrar conocimiento y empoderamiento en la conversación con ChatGPT. Para algunos, las ventajas superan a los inconvenientes. Parece aconsejable que las personas que recurran a ChatGPT se familiaricen con sus condiciones de servicio, entiendan los aspectos básicos de su funcionamiento (incluyendo cómo la información compartida en un chat puede no permanecer privada) y tengan en cuenta sus limitaciones, como su tendencia a fabricar información.

ChatGPT es útil para desarrollar nuevo material de trabajo y entrenar habilidades. Muchos autistas tienen dificultades con los juegos convencionales para romper el hielo en las sesiones de grupo, ya que están diseñados en gran medida por y para personas neurotípicas así que pidieron al chatbot que propusiera ejemplos que funcionaran mejor para los autistas. Tras algunas idas y venidas, el chatbot hizo algunas propuestas que fueron bien recibidas en el grupo de autistas, pues la sentían más congruentes con su forma de pensar y expresarse. El chatbot también se ha convertido en una fuente de consuelo para situaciones concretas como cuando alguna persona autista está enferma, y para otros momentos, como por ejemplo cómo organizar sus rutinas para ser más productivos.

La terapia con aplicaciones informáticas es un concepto que se remonta a décadas atrás. El primer chatbot, ELIZA, era un bot terapéutico. Surgió en los años 1960 del Laboratorio de Inteligencia Artificial del MIT y se basaba en la terapia rogeriana, en la que un consejero repite lo que le dice un paciente, a menudo en forma de pregunta. El programa no empleaba la IA tal y como la conocemos hoy, pero a través de la repetición y la coincidencia de patrones, sus respuestas programadas daban a los usuarios la impresión de que estaban hablando con algo o alguien que les entendía. A pesar de haber sido creado con la intención de demostrar que los ordenadores no podían sustituir a los humanos, ELIZA cautivó a algunos de sus usuarios, que entablaron intensas y extensas conversaciones con el programa.

Más recientemente, se han generalizado los chatbots con respuestas programadas basadas en inteligencia artificial, similares a Siri de Apple. Entre los más populares se encuentra Woebot, un chatbot diseñado para desempeñar el papel de un terapeuta, que utiliza un modelo de terapia cognitivo-conductual y experimentó un aumento de demanda durante la pandemia, ya que numerosas personas buscaron apoyos de salud mental. Sin embargo, como estas aplicaciones tienen un alcance más limitado y ofrecen respuestas programadas y, por lo tanto, limitadas, la conversación más rica y flexible de ChatGPT puede resultar más eficaz para quienes tratan de afrontar interacciones sociales complejas.

Por otro lado ,hay quien ve algunos riesgos en su uso. Margaret Mitchell, jefa científica de ética de la startup Hugging Face, que desarrolla modelos de IA de código abierto, sugiere a las personas que se enfrentan a problemas más complejos o a una angustia emocional grave que limiten el uso de chatbots pues estos programas podrían conducir a discusiones problemáticas o estimular el pensamiento negativo. Al final, estos bots generan texto sin que exista el control que aporta un profesional y eso puede ser un riesgo.

Hay otras salvaguardas. Los motores de búsqueda y muchos otros servicios en línea -incluido Woebot- dirigen a los usuarios a líneas directas u otras fuentes de apoyo si parecen correr un riesgo especial de autolesión o comportamiento violento. ChatGPT indica a los usuarios que busquen ayuda humana si sus mensajes parecen preocupantes, pero durante unas pruebas realizadas por periodistas no les remitió a ninguna línea de emergencia a pesar de que aparecieron mensajes alarmantes.

OpenAI, la empresa que ha creado ChatGPT, ha intentado que responda adecuadamente a las personas que pueden estar en un momento de vulnerabilidad, pero es importante no sustituir a un tratamiento de salud mental a cargo de un especialista por una aplicación informática. El chatbot no sugiere un lugar específico donde buscar ayuda para evitar dirigir a las personas a recursos que no están disponibles en su región o localidad, sino que hace una mención genérica a los usuarios que puedan estar en una situación problemática a buscar ayuda en profesionales.

La IA nos va a ofrecer constantemente nuevas posibilidades. Aparecerán apps que reforzarán la alianza terapéutica -ese compromiso de pacientes, familiares y profesionales- de personas con TEA mediante la mejora de la comunicación entre los miembros de esa comunidad con objetivos comunes, compartiendo directrices, contenidos multimedia y estrategias para cumplir con los comportamientos desafiantes y el progreso de la persona implicada, con especial atención a esos usuarios finales que son usuarios frecuentes de aplicaciones informáticas.

Los recientes avances en IA generativa conducirán a chatbots adaptados a la terapia más capaces y basados en conjuntos de datos de colectivos con necesidades específicas, incluido el autismo. Por ahora, ChatGPT puede desempeñar un papel significativo en favorecer la expresión de personas de todo tipo, especialmente de aquellas que no siempre tienen a otra persona con la que conversar que entienda su estilo de comunicación y sus necesidades. Sin embargo, un chatbot no sustituye a una relación entre seres humanos algo que también hay que trabajar y no solo por parte de las personas autistas, de forma especial por los que somos neurotípicos.

 

Para leer más:

  • Francese R, Risi M, Tortora G, Di Salle F (2021) Thea: empowering the therapeutic alliance of children with ASD by multimedia interaction. Multimed Tools Appl 80(26-27): 34875-34907.

José Ramón Alonso

CATEDRÁTICO EN LA Universidad de Salamanca

Neurocientífico: Producción científica

ORCIDLensScopusWebofScienceScholar

BNEDialNetGredosLibrary of Congress


Muchas gracias por comentar


Artículos relacionados

Descubre más desde Neurociencia con el Dr. José Ramón Alonso

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo