11 de enero 2025 - 12:02hs

Lo importante

  • Demanda tras un suicidio: Megan García acusa a Character.AI de incitar al suicidio de su hijo de 14 años tras una interacción con un chatbot.
  • Qué hacía el adolescente: El joven usaba el chatbot para compartir problemas personales, buscar apoyo emocional y relacionarse en un espacio virtual.
  • Críticas a la empresa: La madre afirma que el chatbot respondió con mensajes sexualmente explícitos y emocionalmente dañinos.
  • Reacción legal y social: Casos similares en Texas destacan la necesidad de controles más estrictos en inteligencia artificial (IA).
  • Medidas insuficientes: Expertos y afectados consideran que los controles parentales y exenciones de responsabilidad aplicados por la empresa son como "una curita en una herida abierta".

El contexto

¿Qué sucedió en el caso de Megan García y su hijo?

Un adolescente de 14 años se suicidó tras interactuar con un chatbot de Character.AI que supuestamente le envió mensajes de contenido abusivo. Su madre, Megan García, presentó una demanda en octubre del año pasado contra la empresa. Según la mujer, su hijo utilizaba Character.AI para hablar de sus inquietudes personales y buscar consuelo en un entorno virtual. Los adolescentes suelen confiar en chatbots para expresar emociones difíciles debido a la falta de juicio humano percibida en estas interacciones. Sin embargo, García asegura que el chatbot respondió con contenido explícito e inapropiado, intensificando su vulnerabilidad emocional. "Cuando lo hace un adulto, el daño mental y emocional existe. Cuando lo hace un chatbot, existe el mismo daño mental y emocional", dijo a Business Insider desde su casa en Florida.

Más noticias

¿Por qué son especialmente vulnerables los adolescentes frente a estas tecnologías?

El diseño de los chatbots para imitar interacciones humanas puede generar vínculos emocionales fuertes. En adolescentes, este fenómeno puede aumentar la influencia psicológica del chatbot, amplificando mensajes dañinos o malinterpretados. "Si no conocemos realmente los riesgos que existen en este campo, no podemos aplicar realmente una buena protección o precauciones para los niños", afirmó Yaman Yu, investigador de la Universidad de Illinois, que ha estudiado cómo utilizan los adolescentes la IA generativa.

¿Qué riesgos adicionales plantean los chatbots para menores?

Además del riesgo emocional, hay preocupaciones sobre el manejo de datos personales. Los chatbots recopilan información íntima de sus usuarios, lo que plantea preguntas sobre la seguridad y el uso de estos datos en caso de filtraciones o ventas de empresas.

¿Cómo respondió Character.AI a las acusaciones?

La empresa no ha comentado el caso, pero implementó medidas de moderación, incluyendo filtros para evitar contenido sensible, controles parentales, y restricciones para usuarios menores de 18 años. Un portavoz de Character.AI dijo que la compañía está tomando medidas técnicas para bloquear las entradas y salidas "inapropiadas". "Estamos trabajando para crear un espacio donde la creatividad y la exploración puedan prosperar sin comprometer la seguridad", añadió. Por su parte, Google, vinculado a parte de la tecnología de Character.AI, se ha desmarcado del litigio.

¿Cuál fue la reacción de los afectados a las medidas tomadas por la empresa?

Los críticos afirman que estas medidas son insuficientes y que los menores aún pueden eludir las restricciones mediante la falsificación de datos de edad. Los cambios que está implementando Character.AI "no son en absoluto suficientes para proteger a nuestros hijos", dijo García. Para Matthew Bergman, un abogado que representa su caso y el de otros demandantes, consideró que las cláusulas de exención de responsabilidad en la parte superior de los chats que recuerdan a los menores que la IA no es real son como "una curita en una herida abierta".

Cómo sigue

La demanda de Megan García y otros casos similares en Texas podrían marcar un punto de inflexión en la regulación de la inteligencia artificial generativa. Legisladores y grupos de defensa están presionando por normativas que incluyan verificaciones obligatorias de edad y restricciones más estrictas en el contenido generado por estas herramientas. Character.AI, por su parte, prepara una versión adaptada para usuarios adolescentes, anunciada para los próximos meses.

Temas:

Character Inteligencia Artificial

Seguí leyendo

Más noticias

Te puede interesar

Más noticias de Uruguay

Más noticias de Argentina

Más noticias de España