Varias empresas se metieron de lleno a desarrollar aplicaciones que ofrecen una supuesta asistencia relativa a la salud mental.

Mundo > PSICÓLOGOS IA

El diván entra en disputa entre Freud, Lacan y la robótica

Una empresa californiana de Inteligencia Artificial lanzó la polémica al difundir que se habían logrado conversaciones emotivas sobre el estrés y el equilibrio mental con ChatGPT. Los críticos aseguran que “enviarse a sí mismo buenas ondas está bien, pero no es psicología”
Tiempo de lectura: -'
09 de octubre de 2023 a las 05:04

Lilian Weng, responsable de temas de seguridad de la empresa californiana de Inteligencia Artificial (IA) OpenAI, disparó el interrogante sobre si ChatGPT podría ser o no un buen psicólogo.

“Acabo de tener una conversación personal bastante emotiva con ChatGPT en modo voz, sobre el estrés y el equilibrio entre el trabajo y la vida personal”, escribió Weng en su cuenta de la red social X, antes Twitter. El mensaje, de inmediato, fue fuertemente criticado por minimizar la dificultad de curar las enfermedades mentales.

Creadora de esta aplicación viral, o lo que podría llamarse “psicólogo artificial”, Weng redobló la apuesta: “Curiosamente me sentí escuchada y reconfortada. Nunca intenté la terapia antes, pero ¿probablemente se parece a esto?”.

Lo que Weng intentaba destacar era la nueva función, paga, obviamente, de voz de este robot lanzado hace casi un año y que busca su modelo de negocio.

La programadora y activista estadounidense Cher Scarlett salió al cruce: “La psicología tiene como objetivo mejorar la salud mental, y es un trabajo duro. Enviarse a sí mismo buenas ondas está bien, pero no es lo mismo”.

La polémica estalló, y la pregunta sobre si la interacción con una IA puede realmente producir la experiencia positiva descrita por Weng saltó a los consultorios.

La revista científica Nature Machine Intelligence publicó esta semana un estudio en el cual se señala que el efecto placebo podría explicar el fenómeno.

En el “paper”, investigadores del Massachusetts Institute of Technology (MIT) y de la universidad de Arizona entrevistaron a 300 participantes con tres consignas claras. A un grupo le dijeron que el chatbot era empático. A otro, que era manipulador. Al tercero, que tenía un comportamiento neutro.

Los del primer grupo respondieron que pensaban estar hablando con un asistente virtual digno de confianza. De modo que Pat Pataranutaporn, uno de los autores del estudio, determinó que, “de alguna manera, la IA se percibe según las ideas preconcebidas del usuario”.

Ya hay varias empresas que se metieron de lleno a desarrollar aplicaciones que ofrecen este tipo de supuesta asistencia relativa a la salud mental. Pero las primeras polémicas se suscitaron con la acusación de que lo hacían sin tomar demasiadas precauciones en un ámbito extremadamente delicado.

Los usuarios de Replika, una aplicación conocida por aportar supuestos beneficios psicológicos, se quejaron de que la IA podía obsesionarse con el sexo o volverse manipuladora.

Por su parte, la ONG estadounidense Koko llevó a cabo un experimento durante el pasado mes de febrero con 4.000 pacientes ofreciéndoles consejos escritos con ayuda del modelo de IA GPT-3. Luego de los estudios, reconocieron que las respuestas automáticas no servían como terapia.

Uno de los cofundadores de Koko, Rob Morris, escribió en su cuenta de X que “la empatía simulada se siente rara, vacía”, una observación coincidente con las conclusiones del estudio publicado en Nature Machine Intelligence sobre el efecto placebo: “Algunos participantes tuvieron la impresión de hablar con una pared”, dijo.

David Shaw, de la universidad suiza de Basilea, no se sorprendió de estos resultados al ser entrevistado por la agencia de noticias AFP: “Parece que ningún participante fue informado de la estupidez de los robots de conversación”.

Ahora bien, la idea de un robot que oficie de terapeuta no es nueva. Ya en los años ’60 del siglo XX se había desarrollado el primer programa de este tipo, llamado “Eliza”, en el que se simulaba una psicoterapia gracias al método del psicólogo estadounidense Carl Rogers.

Aquel primitivo software no comprendía realmente los problemas que le planteaban y sólo se limitaba a prolongar la conversación con “el paciente” con preguntas estándar que trataban de enriquecerse, muchas veces con pobre resultado, con las palabras clave que encontraba en las respuestas del interlocutor.

El creador de aquel antepasado de ChatGPT, Joseph Weizenbaum, dijo entonces que “de lo que no me di cuenta fue de que una exposición extremadamente breve a un programa informático relativamente simple podía inducir poderosos pensamientos delirantes en personas perfectamente normales”.

Parecía asunto saldado, pero ahora, seis décadas después, un frente de batalla se abrió entre los seguidores de Freud y Lacan y los de la robótica.

 

(Con información de agencias)

Comentarios

Registrate gratis y seguí navegando.

¿Ya estás registrado? iniciá sesión aquí.

Pasá de informarte a formar tu opinión.

Suscribite desde US$ 345 / mes

Elegí tu plan

Estás por alcanzar el límite de notas.

Suscribite ahora a

Te quedan 3 notas gratuitas.

Accedé ilimitado desde US$ 345 / mes

Esta es tu última nota gratuita.

Se parte de desde US$ 345 / mes

Alcanzaste el límite de notas gratuitas.

Elegí tu plan y accedé sin límites.

Ver planes

Contenido exclusivo de

Sé parte, pasá de informarte a formar tu opinión.

Si ya sos suscriptor Member, iniciá sesión acá

Cargando...