Autor: Dr. José Martín Méndez González
En los comienzos las palabras y la magia eran la misma cosa, e inclusive hoy mismo las palabras siguen teniendo gran parte de su poderío mágico.
Sigmund Freud, psiquiatra/psicoanalista austriaco (1856-1939)
En 1979 veía la luz el libro de Carl Sagan “Cerebro de Broca”. El capítulo 20 lo tituló “En defensa de los robots”. Allí, describía las fortalezas que mostraban las máquinas cuando de misiones a otros planetas del sistema solar se trataba, donde los seres humanos (una especie de “computadora autodesplazable”) tenemos algunas desventajas biológicas al estar expuestos a largas travesías en gravedad cero y radiación cósmica. También, se preguntaba si no existía un prejuicio por parte de los seres humanos hacia las máquinas al creer que el ser humano siempre iba a ser más capaz que la máquina “tonta”. En sus propias palabras, a este prejuicio lo denominó especiismo, “según el cual no existen seres tan perfectos, tan capaces, tan dignos de confianza como los seres humanos”.
¿Son las máquinas—hoy en día, la Inteligencia Artificial (IA)—igual o más dignas de nuestra confianza? ¿En qué punto la interacción con una IA se puede volver indistinguible de aquella que se tendría (o esperaría tener) con un humano? ¿Cómo saberlo?
El matemático Alan Turing (el mismo que descifró el código alemán Enigma durante la 2da. Guerra Mundial) propuso en 1950 “El juego de la imitación”—posteriormente llamado Test de Turing. El juego involucra la participación de tres personas: una mujer (A), un hombre (B) y el interrogador (C). El objetivo es que el interrogador identifique, a través de un cuestionario y comunicándose por escrito, cuál de las personas es el hombre o la mujer. Pero ¿qué sucede si uno de los interrogados es una máquina o IA? ¿El interrogador podrá distinguir que se trata de una IA efectivamente?
Aparentemente, el test funciona y, hasta el momento, no se tiene reportado que alguna IA haya realmente aprobado el test, pero es un tema que está sujeto a un intenso debate. Por supuesto, existen ejemplos destacados de IA que, quizá en un futuro no muy lejano logren pasar la prueba de Turing de manera definitiva, sin ambigüedad alguna. Un caso notable ha sido el asistente virtual Duplex, presentado en 2018 de manera informal por el ejecutivo de Google Sundar Pichai. La conversación del asistente virtual Duplex se volvió viral al lograr agendar una cita vía telefónica en una peluquería. En el video de la conversación, la mujer al otro lado del teléfono que atendía la peluquería nunca dio señales de que estuviera interactuando con un algoritmo de IA, de que algo no estuviera del todo correcto: toda la conversación fluyó con una asombrosa naturalidad.
Podemos pensar que agendar una cita en una peluquería suena a una actividad trivial, lo suficiente como para que un determinado sector de la población esté gustoso en asignarle esa y otras actividades triviales a un asistente virtual para contar con más tiempo libre. Pero ¿qué sucede cuando las conversaciones con un asistente virtual o IA versan sobre nuestro bienestar emocional y mental? ¿Qué tan dispuestos estarán algunos en recostarse en el diván para ser psicoanalizados por una IA? ¿Cómo podría un código computacional comprender (o domar) el zoológico de emociones y dilemas que habita en un ser humano?
Por lo menos desde finales de la década de los 60’s, el fallecido investigador del Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés), Joseph Weizenbaum, trabajó en un programa—ELIZA—que desempeñaba el rol de un psiquiatra, interactuando con un “paciente” de manera muy similar a como lo hacemos hoy en día con algunos chatbots. En el citado libro de Carl Sagan se expone una breve conversación entre un “paciente” y ELIZA. Al leer la conversación, uno no puede evitar “sentir” que ELIZA demuestra un grado de empatía genuina a pesar de contar con tan sólo 200 líneas de código. De hecho, algunas secretarias que sostuvieron conversaciones con ELIZA llegaron lo suficientemente lejos como para que ellas compartieran sus problemas personales. Weizenbaum estaba atónito por lo que un programa tan sencillo (i. e. reconocer palabras claves, responder con frases hechas a modo para generar la sensación de empatía y continuidad, o dar vuelta a una frase para transformarla en una pregunta) podía lograr: “abrir el corazón” de las personas.
Las experiencias con ELIZA llevaron a Weizenbaum a reflexionar más a profundidad sobre el futuro de la (incipiente en ese entonces) IA, no sólo en el terreno de la privacidad de la información sino también en el poder de decisión que podrían llegar a tener en el futuro. Sus reflexiones alrededor de estos temas quedaron plasmadas en su libro “El poder de las computadoras y la razón humana”, publicado en 1976.
Desde entonces, la investigación no ha cesado en lo que respecta al uso de IA y terapias psiquiátricas utilizando la comunicación escrita. En el Reino Unido (RU) existe una clínica de tratamiento mental llamada Ieso, la cual ha analizado con ayuda de IA el lenguaje utilizado en los registros de numerosas sesiones psiquiátricas. El algoritmo utilizado por la clínica Ieso utiliza el procesamiento de lenguaje natural (Natural Language Processing o NLP, por sus siglas en inglés) para identificar aquellas palabras o diálogos más efectivos para tratar ciertos desordenes mentales. No sólo se trata de hallar las palabras adecuadas que conducen a una recuperación o cura más rápidamente sino también el momento en el que deben ser dichas. Tampoco trata de reemplazar a los psicoterapeutas; más bien, se busca mejorar la calidad de la terapia partiendo de las sesiones registradas de los terapeutas con mayor índice de mejora en sus tratamientos.
¿Funciona? Veamos algunos números. Las terapias con el enfoque de IA que utiliza Ieso tienen una tasa de recuperación del 53 %, cuando el promedio nacional en el RU es del 51 %. Suena marginal, pero estamos hablando de miles de personas que han experimentado un cambio positivo en su calidad de vida. Por ejemplo, para 2021 en el caso del tratamiento de la ansiedad y depresión—algo en lo que Ieso ha venido trabajando desde 2013 por tratarse de los casos más comunes—las terapias con ayuda de IA de Ieso tienen una tasa de recuperación del 62 % para la depresión (el promedio nacional en el RU es del 50 %) y 73 % para el desorden generalizado de ansiedad (compárese con el promedio nacional en el RU del 58 %).
Los resultados prometedores que se están obteniendo en Ieso abren la puerta hacia terapias psicológicas de precisión, las cuales podrían volverse una realidad en un lapso de unos 5 años en el futuro, según sus estimaciones. Y esto es sólo lo que han logrado con conversaciones textuales entre paciente y médico. ¿Qué pasaría si comenzaran a analizar potenciales fármacos (cuando el caso lo requiera) que mejoren las tasas de recuperación? Esto también forma parte del concepto de una medicina de precisión… y ya la tienen en la mira como siguiente paso.
Otra puerta que está abriendo el uso de IA para analizar los miles de horas de sesiones transcritas, es la posibilidad de identificar a aquellos terapeutas que destacan por las tasas de recuperación de sus pacientes. De acuerdo con los datos analizados por Ieso existen entre un 10 % y 15 % de terapeutas destacados que “hacen algo mágico” con sus pacientes. Pero ¿es posible enseñar ese “toque mágico” a otros terapeutas y, así, incrementar la calidad de las sesiones, subir el estándar? Si miramos el tema de la salud mental desde un punto de vista comercial, esto puede parecer controversial, puesto que “ese algo” que hace únicos a ese grupo de terapeutas podría considerarse su ventaja competitiva, la cual podría perderse si se “revela” completamente a un algoritmo de IA. Por otro lado, si miramos desde la perspectiva de salud pública, la sinergia con la IA puede ayudar a miles (o millones) de personas con ciertos padecimientos mentales. ¿Se logrará un compromiso entre ambas visiones? El conocimiento adquirido de los cientos de sesiones analizadas, ¿se utilizará para manipular a la sociedad con fines políticos, por ejemplo? No lo sé a ciencia cierta, pero me temo que las respuestas pueden yacer en zonas grises.
Es conocida la siguiente respuesta que dio la antropóloga Margaret Mead* cuando un estudiante la cuestionó sobre cuál consideraba ella que había sido el primer signo de civilización en los humanos: “Un fémur fracturado y sanado”. Este hecho implica que alguien tuvo la suficiente empatía, compasión, para cuidar de la persona hasta su sanación; sin esos cuidados, nunca hubiera sobrevivido. Me resulta curioso cómo la IA, en este caso en particular, está ayudando a cientos de personas—en algunos casos sanándolos—a recordarnos el poder del lenguaje, cómo las palabras que quizá utilizamos diariamente sin darnos cuenta pueden ejercer una enorme diferencia al pronunciarlas en el momento adecuado desde la empatía y la compasión.
*Nota: Margaret Mead fue una de las antropólogas invitadas a la que se considera la primera conferencia dedicada a la Cibernética, ciencia que el mexicano Dr. Arturo Rosenblueth ayudó a formalizar como relaté en una columna anterior. Una descripción de la intensidad de las conversaciones en esa conferencia, así como las memorias del suceso por parte de Mead, se pueden consultar en el libro “Arturo Rosenblueth, 1900-1970.”, escrito por Ruth Guzik Glantz y publicado por El Colegio Nacional y el CINVESTAV.