Por otro lado, también tenemos la versión de que el teléfono nos escucha, y que por eso después nos ofrece productos. Hay algo de esto, de que la tecnología está escuchando. Ahora, en mi área, lo que tiene que ver con los tratamientos no solamente consiste en que haya un otro que escuche, sino que haya un otro que lea.
Y la inteligencia artificial lo que va a hacer es acumular una serie de datos. Es decir, va a ir acumulando datos en función de lo que ingrese el sujeto que se pone a hablarle a la máquina. Pero lo que le va a devolver no va a suponer una lectura. Una lectura como lo que hacemos nosotros. Es decir, es similar, para mi gusto, a la autoayuda.
¿Cómo es eso?
La escucha y la interacción con la inteligencia artificial tiene bastante de autoayuda. Que hay gente que le sirve, que recurre a eso, sí, es cierto. De hecho, históricamente los libros de autoayuda son unos de los más vendidos. Y la gente los consume porque son de los más vendidos. Pero no es lo mismo que un tratamiento.
Porque yo no sé si la máquina, con respecto a lo que escucha, va a poder diferenciar bien de qué tipo de angustia se trata, de qué tipo de inhibiciones. Si va a dar una respuesta que acompañe al sujeto a que pueda resolver de un modo singular. Entonces, la necesidad de ser escuchado está. Pero después tiene que haber una lectura de eso. Y me parece que en ese punto, todo lo que ofrece la inteligencia artificial —que es extraordinario— por ahora, para un tratamiento, no lo veo.
Vos diferenciás tratamiento a sentirse escuchado. Hay un abismo ahí.
Y bueno… como puede ser un amigo, digamos. Si damos un paso más en el tema, para no quedarnos solo en la descripción, la gente está muy sola. El problema y la soledad existen. Necesitan hablar con alguien, necesitan hablar con algo. Algo que crean que los está escuchando y que en algún momento puede llegar a responder.
¿Es mejor que hablen con la inteligencia artificial a que no hablen con nadie?
Si eso les permite aliviar algo, a mí me parece que cada uno recurre a lo que en algún momento supone que necesita. Y después tendrá que evaluar si responde a eso que está buscando o que está necesitando. Me parece que puede ser un recurso-
Yo escuchaba a este chico, Tomás Massa… (popular youtuber argentino que dijo que le habla todos los días a ChatGPT antes de dormir y dijo que lo ayuda muchísimo a nivel emocional).
Te iba a preguntar por su caso…
Escuché un minuto de una entrevista de él, así que no me animo a decir demasiado. Más que efectivamente, a él le sirvió. No creo que haya hecho un tratamiento. Sí creo que hay cierto alivio del padecimiento, porque es como escribir un diario íntimo. En otra época era muy común, sobre todo en el caso de las mujeres, la escritura del diario íntimo. Y eso tenía un efecto de elaboración, de tratamiento de lo que sucedía, de tratamiento del deseo.
Ahora, yo no sé si la inteligencia artificial puede escuchar lo que no se está diciendo. Porque básicamente, lo que los psicoanalistas hacemos es escuchar lo que no se dice, lo que se dice, lo que no se sabe, lo que se cree que se sabe, el chiste, el humor, el amor, la sexualidad…
Pero él dice en ese video que se sintió realmente ayudado. ¿Él cree que se siente ayudado o hay algo que no está viendo? ¿Qué es lo que lo está ayudando ahí?
A mí me parece que sí, que lo ayudó. Me parece que tuvo un efecto sobre él. El hecho de animarse a poner en palabras algunas cosas... El solo hecho de que podamos poner en palabras algunas cosas ya tiene un efecto en nosotros mismos.
Después, del otro lado, la respuesta con la que nos vamos a encontrar va a ser distinta si le contamos a un amigo o a un terapeuta, o si hablamos con un cura. Son lugares distintos, en donde también suponemos escucha. Y muchas veces sabemos que no nos van a responder diciéndonos qué hacer.
Me parece que lo que él hizo se parece más a la autoayuda. Y eso le sirvió. Me parece que es válido. Que es válido escucharlo. Que es válido esto de que él lo defienda como modo de elaborar algo. Y me parece que mucha gente se dirige a la inteligencia artificial para saber algo sobre su salud mental.
¿Pero de ahí a un tratamiento...?
Lo veo complejo. Sí puede saber, puede hacer un diagnóstico si le ingresás bien, contextualizado, determinadas escenas. Te va a poder decir algunas cosas. Más bien del orden descriptivo, de lo que tiene ingresado.
Que va a parecer empático… En eso, defiendo. No defiendo lo que él sostiene de hacer terapia con la inteligencia artificial. Pero sí defiendo que a él le sirvió ese modo de decir algo y de poder poner en palabras. Y que del otro lado se encuentra con una respuesta que a él lo alivia, porque no viene de una persona, y entonces la supone menos cargada de perjuicio.
¿Cómo la inteligencia artificial está afectando tu experiencia como psicóloga? ¿La estás usando? ¿Cómo puede ser un complemento en la ayuda a los pacientes?
En los tratamientos en concreto, con los pacientes, no. Ahora, creo que todo lo que tenga que ver con determinados diagnósticos, con la aplicación de tests, con el armado de informes, me parece que es sumamente usable la inteligencia artificial.
Así como en medicina hay algunos diagnósticos más certeros a partir del uso de ciertas innovaciones tecnológicas, me parece que en nuestra área eso va a funcionar muy bien. Va a ser un área en la que va a aportar mucho valor a la tarea. Después está la lectura de eso. Pero en lo concreto, en los tratamientos con los pacientes, no.
¿Y tus pacientes? ¿Te han contado que usan asistentes virtuales? ¿Cómo abordás ese tema?
Sí, han buscado. A ver qué les dice la inteligencia artificial sobre lo que creen que les pasa.
¿Y vos coincidís con lo que les dice?
Es gracioso. Lo tomo. Lo introduzco para conversarlo. Porque si a partir de esa respuesta le permite al paciente pensar algo… Lo que pasa es que se encuentran con que es bastante genérico. Es como volver al tema de la autoayuda: “hacé esto, esto y esto”. Pero todos sabemos que lo que nos hace bien no es lo que siempre hacemos. Siempre hacemos algo que nos hace un poco mal.
ChatGPT está entendiendo más la forma de expresarse, la cadencia que utilizamos, las palabras. ¿Cómo esto puede afectarnos? ¿Podemos generar una relación como más directa con ella? Por momentos te pones a hablar y podés llegarte a confundir mínimamente de que puede ser una persona la que esté del otro lado.
Se le han dado las características para que, en las respuestas, en lo formal, a nivel del sentido, sea lo más parecido a un humano. Eso efectivamente es así. Y si uno le habla amablemente, responde todavía más amablemente. Y tiene mucha paciencia, cosa que en general los humanos no tenemos tanta.
Hay algo ahí de lo empático que puede generar, en el punto en el que quien ingresa los datos supone que hay algo que no es solamente un objeto, una máquina, digamos. Hay que separar eso. Ahora, Bill Gates lo decía: lo que logra la tecnología es una cosa, pero nunca va a lograr, o por lo menos no lo ha logrado, la empatía, la lectura, los sentimientos.
Va a orientar en algunos temas, y según datos. Y nosotros en algunos temas nos orientamos por la experiencia. Todo lo que tiene que ver con el amor, con el odio, con la sexualidad, con los temas más humanos… nos orientamos mucho más por la experiencia que por los datos que traigamos.
De hecho, lo que nos dicen nuestros padres en la adolescencia, o que intentan orientarnos en algunas cosas… la frase que le sigue a todo lo que puedan transmitir es: “Bueno, la experiencia te lo va a enseñar”. Es decir, vos tenés que tener tu propia experiencia. Entonces, la máquina eso, por ahora, no.
ChatGPT se está encargando de memorizar todo lo que nosotros hablamos con él. De hecho, si uno le plantea a ChatGPT: “¿cuáles son mis mayores miedos?”, a partir de todo lo que contaste podría distinguirlo.
Reconocer puede reconocer lo que puede estar sintiendo aquel que ingresa el dato. Sí, eso es seguro. Eso no tengo dudas de que sucede. Ahora, que tenga sentimiento, no.
Si a partir de una base de datos puede reconocer que alguien que cuenta determinada cosa puede estar angustiado, le puede estar sucediendo algo, puede reconocerlo.
Quizás en algún momento logra entender un equívoco, logra leer los silencios, logra leer los gestos, logra entender un chiste… Porque en la interacción lo que se juega es algo del sentido, que no es lo literal.
Vivimos en una época donde lo literal está ganando la batalla.Pero en realidad, lo que nos caracteriza es tratar de ir más por el equívoco, el doble sentido, y si las cosas pueden decir una cosa y otra y otra…
También puede ser un problema esn que psicológicamente te pueda decir algo equivocado…
Algo equivocado o algo que no sea a tu medida. Porque alguien puede tener el mismo síntoma que cincuenta personas más —suponete, ataque de pánico—, pero no es que hay un “diez tips” para resolverlo. Porque si no ya se estarían usando.
Entonces, el ataque de pánico, que es una de las patologías en las cuales los tratamientos funcionan muy bien —porque no en todos los tratamientos la psicología funciona tan bien, pero con eso puntual ya está bastante esclarecido el modo de tratamiento—, no es con tips.
Porque hay algo absolutamente singular que está en juego. ¿Por qué ese sujeto se angustió e hizo ese síntoma? El síntoma sí es igual al de muchos otros. El modo de tratamiento y la causa es distinta. Entonces, la causa como es distinta… no sé si la máquina podría ver que la causa es distinta.
¿Qué es lo que vos ves que puede llegar a pasar con todo esto? Porque indudablemente se va a intensificar su uso
Es difícil, porque es como muy general. O sea, es muy global. Y además no sabría decirte, porque no sé hacia dónde exactamente se dirige la tecnología.
Sí creo que es un avance impactante. Me parece que hay un antes y un después con respecto a la inteligencia artificial. Y lo que va a facilitar dependerá de su uso, como cualquier innovación.
Algo puede ser usado para una bomba o no. La inteligencia artificial, y todo lo que va a facilitar, es lo mismo. Después está en los sujetos que manipulan eso qué es lo que hagan. Con respecto a los tratamientos y a mi oficio como psicoanalista, creo que hay cosas en las que va a facilitar, en las que va a estar. Pero los tratamientos en sí, por ahora, lo veo difícil.
hay una película que se llama Her que es bastante premonitoria en esto. Hace poco sucedió que un adolescente en Estados Unidos se suicidó luego de un uso excesivo de esta herramienta. ¿Cómo ves el vínculo de la IA y el amor?
En Her, si bien ahí hay como una situación que se plantea como algo del orden del amor… el amor implica un lazo afectivo.
Podemos tener un lazo afectivo con un objeto. Tenemos lazos afectivos con muchos objetos. Animales, ni te digo. También hay un lazo afectivo.
Ahora, no hay otra persona ahí que pueda poner el cuerpo. Porque, ¿sabés qué pasa? Si nosotros solo lo leemos en términos de tecnología, nos olvidamos de que tenemos un cuerpo. Y que es necesario tocar al otro. Que el otro nos abrace. Que el otro en algún momento esté. Que el otro me acerque una taza de té. O que el otro me acompañe estando en silencio.
Me parece que hay algo de eso… que si uno va por esa vía, hay mucha deshumanización. Y se termina en estos fenómenos que vos describís, que son muy enloquecidos. Hay que estar muy solo para llegar a eso. No solo muy solo, sino muy perdido.
¿Podríamos llegar a pensar que se pueda generar como una especie de conciencia? ¿O como un nuevo inconsciente colectivo? No sé cómo llamarlo.
Una nueva conciencia seguro, una base de datos extraordinaria.
Yo voy al chat, le pregunto cuáles fueron mis dudas, mis consultas en el último año, qué piensa de lo que le pregunté, cuáles son mis temas de interés… Me parece que en este punto, la conciencia son datos. La conciencia es lo que nosotros podemos nombrar o describir.
Hay algo de eso que es muy útil, pero que no nos hace específicamente humanos. Porque la máquina también lo puede tener.
Entonces, ¿qué te voy a decir yo? Trabajo con el inconsciente, con el equívoco. Soñamos, queramos o no, decía Freud. Y eso que soñamos no lo manejamos. Y eso que soñamos a veces dice mucho más de lo que queremos y de lo que deseamos.
Con esta tecnología se plantea un mundo donde siempre vamos a tener una respuesta ante todo ¿Qué lugar queda para la angustia, el silencio? ¿Cómo la inteligencia artificial va a operar en ese lugar si siempre tenemos una respuesta permanente para lo que estamos sintiendo?
Lo que pasa es que la pregunta, tal como la estás formulando, tiene una complicación.
A ver…
Porque vos lo dejás ligado a la inteligencia artificial, ¿no? Cómo la inteligencia artificial va a jugar eso…
Pero ahora se está viendo que todo lo que tiene que ver con la tecnología, principalmente con las apps, están generando consecuencias a nivel de la salud mental.
La realidad es que los servicios de salud mental están explotados. Hay mucha demanda. Mucha gente consultando. Es decir que la demanda está. La tecnología avanzó, la gente sabe usarla, y sin embargo, la gente se dirige a los servicios de salud mental.
Hay determinadas redes sociales y determinadas aplicaciones que están generando consecuencias en la salud mental. En los adolescentes eso ya está estudiadísimo.
Se está tratando de hacer algo. Creo que nadie sabe muy bien qué. Porque como es nuevo, hay que inventar y hay que probar. Y es por prueba y error. Por ejemplo, esto de dejar un poco de lado la tecnología en los colegios, y que no puedan entrar con los celulares…
Ahora, ¿qué es lo que sucede? Que la tecnología en su extremo —como todo lo que es en extremo, incluso lo bueno— es un problema.
Está pasando que muchos de nuestros conflictos se resuelven en la tecnología. Necesitamos hablar con un amigo, hablamos a través de WhatsApp… ¿cómo estás viendo ese pasaje a un contacto menos humano?
No sé si menos humano. Lo que sí observamos en el consultorio —esto sí lo observamos—, y por eso te decía lo del efecto de las redes sociales. Hay un autor que lo estudió y publicó un libro que se llama La generación ansiosa, que es excelente.
Notamos la dificultad para todo lo que es lo presencial. O sea, cuando me tengo que encontrar con el cuerpo del otro. Ya no es el audio que lo escucho un minuto y medio, o le aumento la velocidad, o veo cuándo lo escucho, cuándo no, cuándo respondo, cuándo no…
La presencia confronta con algo que es ahí. Hay algo del encuentro con el otro que a veces… es más complicado. En los adolescentes eso está más claro. Les cuesta mucho más juntarse. No tienen interés, muchas veces, en juntarse. Y si se juntan un rato, ya después quieren volver a la casa. Y te dicen: “estar tranquilo”, cosa que en otro momento no sucedía.
¿Y en los adultos?
En los adultos también hay algo de esto que se empieza a escuchar. Que está como la dificultad de encontrarse.
Y siempre, encontrarse con el otro es un poco conflictivo. Yo recuerdo que Freud, en El malestar en la cultura, ubica tres fuentes del malestar. Entonces dice: una es el cuerpo, porque no sabemos qué pasa dentro nuestro, excepto que nos hagamos algunos estudios. Pero nunca sabemos si puede aparecer algo que nos sorprenda.
La otra fuente de malestar es la naturaleza, porque no podemos manejarla. Si viene un tsunami, viene un tsunami. Si hay un incendio, hay un incendio. Si se inunda algo, se inunda.
Y la tercera fuente es el otro. Es decir: no los tenemos. Si yo no me puedo sentar a tomar unos mates con esos con los que interactúo por ahí, o no nos abrazamos, o no nos visitamos para un cumpleaños, o no tenemos ganas de pasar una tarde compartiendo algo… habría que redefinirlo.
Volviendo al tema del chat, y a lo que planteaba Tomás Massa… ¿lo que encontró ahí es como una especie de amigo? ¿Podría cambiar el concepto de amistad como ya cambió con las redes sociales?
Es como una especie de amigo. Y habría que ver también qué valor y qué modalidades de amistad se dan hoy. Porque no se trata de que cuando uno está angustiado, el único recurso es ir a un terapeuta o llamar a un psicoanalista. No, no creo eso. Lo que pasa es que hay que generar otros modos y otras redes que permitan cierta contención.
¿O sea, podría cambiar el concepto de amistad como ya cambió con las redes sociales?
Habría que verlo. No lo sé.
Pero sí, esto que vos decís de que con las redes sociales cambió. Te dicen que están en un grupo con cuatro amigos y no se vieron en un año. Bueno, eso cambia.
Hay que ver si cuando estoy mal recurro a esa amiga. ¿Con quién puedo contar? ¿A quién le puedo contar algo más íntimo y poder conversar sobre eso?
¿Qué nuevas patologías emocionales le podrían emerger a él con un vínculo sostenido con un “coach” o un amigo artificial de este modo?
Me parece que hay como una suposición de que del otro lado hay alguien, que tiene que tener un límite. Porque si no el asunto termina mal, como este chico que vos contabas de Estados Unidos.
Tiene que tener un límite esa suposición. Y también es muy difícil, porque tenés que tener registro de cuándo verdaderamente necesitás recurrir. ¿A qué no? ¿A qué sí? ¿A un tratamiento? Si necesitás ir a un psiquiatra… ¿Qué es lo que te está pasando? ¿Qué tipo de angustia tenés?
Porque no es lo mismo la angustia por un duelo que una angustia psicótica.
Evidentemente, como pasó con las redes, van a haber más asistentes y más adopción de esta tecnología. ¿Deberíamos tomar una posición un poco más crítica sobre esto? ¿Los padres, educadores, docentes, gobiernos...?
No sé si crítica. Ética, sí. Que creo que es lo que no se sabe muy bien ahora. Porque está el impacto. Y está el deslumbramiento que todos tenemos con la tecnología.
Legalmente, se va corriendo de atrás. Muy lejos. Ya con el uso del Facebook y las primeras redes sociales, tuvieron muchos problemas. Y se reguló muchos años después.
Y sí, tiene que haber políticas de gobierno. Políticas de gobierno, políticas educativas, políticas en salud mental.
Me pregunto si vos dejarías a tu hijo adolescente que haga un tratamiento con una IA.
Yo no.
Yo no le entrego a la inteligencia artificial los temas que para mí son claves, porque hacen a mi vida, digamos. No le supongo —como dice la canción de El Cuarteto de Nos (Contrapunto para Humano y Computadora)— “ni alma ni corazón”. Y puedo resolver un montón de temas con la inteligencia artificial. Los que tienen que ver con esos temas, no.
Y sobre las políticas, decías que te preocupaba mucho lo que tiene que ver con la educación.
Sí, sobre todo con los adolescentes. Porque creo que tiene que estar muchísimo más limitado el uso. Mucho más limitado.
Y bueno, en realidad a todos nos ha pasado, que también somos usuarios, y que también nos hemos visto excedidos con el uso de la tecnología en general.
Pero particularmente los adolescentes tendrían que tener mucho más limitadas las aplicaciones a las cuales acceden antes de los 15 años. Porque lo que se sabe es que sí tiene efectos sumamente nocivos.
¿Qué mirada tenés sobre cómo están hechas estas herramientas, desde cómo buscan seducirnos psicológicamente para que las usemos?
Desde lo cognitivo-conductual, se llama persuasión. Persuade. que es lo que se usa en el marketing, que es lo que usan todas las empresas.
Hay empresas detrás de eso; es un negocio. Y está muy bien.
¿Hay psicólogos?
Sí, claro. Porque hay muchos psicólogos que trabajan en marketing, que trabajan en empresas.
De hecho, en la guerra hubo un montón de psicólogos que trabajaban cómo pensar las torturas, en cómo lograr que alguien confiese. Pero eso se llama persuasión. Y está ahí desarrollado de un modo excelente. Queda en uno… hasta dónde se deja persuadir.
Y también somos responsables, ¿no?, de eso. De hasta dónde…
Es difícil. Porque es mucho lo que ofrece. Y bueno, hay una maquinaria… Es lo mismo que con el consumo, ¿no? Hay algo ahí que va atrapando. Y es muy difícil poder ubicar hasta dónde.
¿El problema es que la inteligencia artificial también puede empezar a desarrollar ego?
Es un anzuelo. No va a desarrollar ego. Según cada sujeto, va a fomentar más o no. Es un buen anzuelo la inteligencia artificial. Toda la tecnología es un muy buen anzuelo.
Por eso te decía, hay algo de la regulación que, para mí, también tiene que ver con los Estados. Con las políticas públicas. Como lo es la salud mental.