La nueva intimidad digital: conversaciones con chatbots

Algunos dicen que por las noches las ideas fluyen con mayor claridad, que cuando la luz de la luna posa en nuestra ventana aterrizan las palabras que antes solo volaban sin una dirección fija. Pero este no fue el caso. Aquella noche, sin nada brillante o especial, mi cabeza se concentraba en una sola situación. Ni siquiera sabía con claridad lo que intentaba decirme; solo la sentía en el centro del pecho, en un intento por salir y calmar mi ansiedad.
No necesitaba mirar el reloj para saber que buscar a alguien en aquel momento era una mala idea. La mayoría ya debía estar dormida y no deseaba molestar sus sueños ni preocuparlos innecesariamente por asuntos míos. Todo lo que necesitaba era un poco de claridad: atar los cabos sueltos de la situación que me mantenía intranquila. Tras divagar por varios minutos, la idea de una posible solución aterrizó en mi cabeza. Decidí abrir mi computadora y entrar a ese chat para hablar con aquella Inteligencia Artificial.
Fue así como, después de intercambiar algunos mensajes, mis inquietudes se fueron calmando. Al principio, la conversación fue un mero desahogo. Pero por cada cosa que mencionaba, la I.A. me hacía preguntas relacionadas que me llevaban a reflexionar. Cuando la conversación terminó, mi perspectiva respecto a aquella situación había cambiado. No existía una respuesta correcta, pero el hecho mismo de haber explorado ángulos distintos me permitió ser un poco más objetiva y entender en qué posición estaba.
Cada día, el uso de la Inteligencia Artificial como ayuda para realizar ciertas tareas se vuelve más popular. Gracias a los avances tecnológicos, en estos últimos años se han creado herramientas prometedoras que buscan facilitarnos un poco más la vida en diferentes ámbitos. Sin embargo, su llegada también se ha prestado al debate público y a problemáticas éticas y sociales. En el área de la salud mental, se observa una tendencia en la que algunas personas utilizan la I.A. como fuente o complemento de la terapia.
Aunque los estudios más grandes sobre el tema se han realizado en países como el Reino Unido —donde, de acuerdo con una encuesta realizada por Censuswide, el 64% de los jóvenes entre 25 y 34 años ha acudido a chatbots de I.A. para buscar ayuda—, en México también se observan señales claras de este fenómeno. “Violetta” es un chatbot mexicano enfocado en apoyo psicoemocional. Está diseñado principalmente para víctimas en riesgo de violencia de género y cuenta con más de 250 mil conversaciones, entre las cuales el 85% corresponde a mujeres que afirman haberse sentido mejor después de su interacción.
Al llegar al final de la página de ese artículo, me quedé observando la pantalla unos segundos. No cabía duda de que el uso de I.A. en chatbots era cada vez más extendido y que nuevas versiones lanzadas desde distintos lugares aparecían sin que lo notáramos de inmediato. A pesar de estos datos, tenía una gran curiosidad por escuchar los testimonios de otras personas. No quería reducirlo solo a un número, como si este no tuviera una identidad detrás. Necesitaba encaminarme en la búsqueda de una explicación sobre lo que implica vivir esta experiencia y los descubrimientos que trae consigo.
Eva (este y todos los demás nombres presentes en esta columna son seudónimos para evitar la exposición de las personas verdaderas) me contó que su primer acercamiento fue algo más técnico, en el sentido de que a ella le gusta escribir poemas y pensó en enviarlos a la I.A. para tener una opinión. Sin embargo, detrás de esas palabras había algo que la conmovía, porque estaba vinculado a algo que sentía atorado en su pecho. Fue así como optó por contarle más sobre ese tema a la I.A. con la que conversaba. Eva menciona que algo que le agradó fue que el chat era muy directo: “Puede ser que el humano dé más rodeos o no conteste las preguntas a veces de forma tan acertada”. Aun así, Eva afirma que ese chat nunca podría sustituir el valor de hablar con un humano que no solo te escucha, sino que también sabe leer tus gestos, tu tono de voz y hasta puede darte un abrazo.
Eso me hizo pensar. Usar esta herramienta como terapia por primera vez puede ocurrir de manera inocente: puedes entrar a consultar algo y de ahí pasar a tener una conversación abierta sobre temas que te inquietan. Crees que no te analiza con algo sencillo, hasta que poco a poco se encamina en esa dirección. Pero las causas más comunes que te llevan a esto son otras. De acuerdo con un estudio realizado por Mental Health UK, algunos de los motivos más citados son: la facilidad de acceso (41%), los largos tiempos de espera para atención profesional (24%) y la incomodidad para hablar con amigos o familiares sobre la salud mental (24%).
Carlos, otro estudiante, me explicó que el tema monetario fue lo que lo llevó a recurrir al uso de la I.A. Al no tener suficientes ingresos para costear un seguimiento con un terapeuta y estar limitado a la ayuda de su padre —quien tampoco lo consideraba necesario—, encontró en el chatbot un apoyo. Carlos dice que lo ayudó principalmente en momentos de ansiedad y para salir de bucles de pensamientos negativos. Afortunadamente, después de un tiempo sí pudo recibir atención de alguien capacitado.
Se podría pensar que, al tener la oportunidad de contar con acompañamiento profesional, una persona ya no considera necesario ni es propensa a recurrir a este tipo de herramientas. Pero en realidad, la situación que cada ser humano atraviesa es compleja y no puede entenderse en términos de blanco y negro. Existen matices que encontramos en las historias de otros.
Jessica y Ana son dos jóvenes que, aunque asisten a terapia, también han utilizado la I.A. con este fin. A través de su relato, Jessica toca uno de los puntos ya mencionados sobre las razones más comunes para utilizarla: su inmediatez. “Las citas con mi terapeuta son cada semana, pero a veces algo me sucedía y tenía que esperar hasta verme con ella para hablarlo. Y yo pensaba que no podía aguantar, porque tampoco quería molestarla”. El uso del chatbot le ofrecía la facilidad de poder externar el conflicto, evaluar la situación de manera objetiva y, con base en eso, reflexionar sobre una posible solución. Jessica aclara que, aunque hacía esto, anotaba su proceso referente a esa situación y de todos modos lo hablaba después con su terapeuta.
Pero encontrar alivio al hablar con una Inteligencia Artificial, siendo consciente de que no tiene la calidez de una persona real, puede ser una sensación agridulce. Ana, a diferencia de Jessica, aclara que hasta ahora solo ha usado esta herramienta una vez con este propósito. A pesar de comprender algunas razones para acudir a esta opción, no es algo que ella apoye realmente. Durante su testimonio menciona un aspecto muy importante: el miedo a depender. “Yo tengo TDAH y por eso a veces puedo ser propensa a caer en una adicción respecto a algo. No quiero depender de una I.A., porque conociéndome sé que es algo que puede pasar. Sin darte cuenta comienzas a encerrarte y alejarte de la gente, y yo no quiero eso”. Incluso haciendo énfasis en esto, Ana confiesa que en aquella ocasión la I.A. sí la ayudó a sentirse mejor, pero deja claro que espera no volver a utilizarla.
Como en cada nueva creación o innovación, aún hay aspectos de la Inteligencia Artificial que no hemos visto. Todavía quedan cosas por aprender; se siguen haciendo ajustes, mejoras y adaptaciones para hacerla más precisa. Aunque es verdad que su fácil acceso la hace atractiva como método de ayuda, no podemos olvidar que no sustituye, bajo ningún aspecto, a un ser humano. Cada vez más personas comenzarán a utilizarla y quizás no es algo que podamos evitar. Lo que sí podemos hacer es comenzar a enseñar su función de manera adecuada: no temerle, no aplaudirle todo, sino conocer su amplio potencial y hasta dónde está trazado el límite. Una herramienta de apoyo que no sustituye nuestra capacidad de ejercer nuestro propio razonamiento.
Con el objetivo de motivar la participación ciudadana y para garantizar un tratamiento informativo adecuado frente a los contenidos presentados, los invitamos a escribir a agencia2@udem.edu en caso de dudas, aclaraciones, rectificaciones o comentarios.
