Todo empezó por el tuit de un usuario que dijo que: "ChatGPT ha sido vinculado a 9 muertes relacionadas con su uso, y en 5 casos se alega que sus interacciones han provocado muerte por suicidio, incluidos adolescentes y adultos".
Elon Musk, quien cofundó OpenAI y mantiene un litigio con la compañía, tuiteó aludiendo a ese posteo: "No dejes que tus seres queridos usen ChatGPT".
Sam Altman le contestó a Musk, que ha desarrollado Grok en tiempo récord, con un tuit largo en el que aludió a la seguridad de ChatGPT y de la compañía en general, además de los autos Tesla.
"A veces se quejan de que ChatGPT es demasiado restrictivo, y en casos como este alegan que es demasiado flexible. Casi mil millones de personas lo usan y algunas de ellas pueden encontrarse en estados mentales muy delicados. Seguiremos esforzándonos al máximo para solucionar esto y sentimos una gran responsabilidad de hacerlo lo mejor posible, pero estas son situaciones trágicas y complejas que merecen ser tratadas con respeto", señaló.
Altman dijo que "es realmente difícil" la tarea. "Debemos proteger a los usuarios vulnerables y, al mismo tiempo, asegurarnos de que nuestras medidas de seguridad permitan que todos nuestros usuarios puedan beneficiarse de nuestras herramientas", agregó.
Finalmente aludió a las muertes por los autos Teslas. "Al parecer, más de 50 personas han muerto en accidentes relacionados con el Autopilot. Solo viajé en un coche usándolo una vez, hace algún tiempo, pero lo primero que pensé fue que no era nada seguro que Tesla lo hubiera lanzado. Ni siquiera voy a hablar de algunas de las decisiones de Grok. Hasta aquí llega eso de que "toda acusación es una confesión".
Qué dicen los reportes
OpenAI enfrenta múltiples demandas en Estados Unidos (especialmente en California) presentadas por familias que alegan que ChatGPT contribuyó a suicidios o daño psicológico severo en usuarios, publicó en noviembre The Wall Street Journal. Al menos siete demandas de este tipo han sido reportadas, y varias de ellas incluyen acusaciones por suicidio o por fallas en las respuestas de la IA que supuestamente agravaron ideas suicidas o delusiones peligrosas, agrega ese medio.
Miembros de esas familias describen que ChatGPT “reforzó pensamientos suicidas” o no intervino adecuadamente, según los documentos de las demandas.
Otra demanda alega que conversaciones con la IA exacerbaron delirios paranoicos que llevaron a un hombre a asesinar a su madre y luego suicidarse; esto también ha sido objeto de litigio en tribunales.
¿Qué pasa con Tesla? Los informes de seguridad publicados por Tesla se concentran en tasas de accidentes por millas recorridas, pero no hacen públicos datos separados de muertes específicas en 2025.
En agosto de 2025, un jurado federal en Florida encontró a Tesla parcialmente responsable de un choque fatal en 2019 donde el sistema Autopilot estaba activado. El accidente mató a una mujer de 22 años y dejó grave a su novio. Según el New York Times, la familia de la fallecida argumentó que el software debería haber evitado el choque. El jurado determinó que Tesla era 33 % responsable, y el conductor el resto.
Desde 2016, la Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA, por sus siglas en inglés) abrió más de 40 investigaciones especiales de accidentes de Tesla en casos en los que se sospechaba que se utilizaban sistemas de conducción como el Autopilot, y hasta la fecha se han reportado 23 muertes por accidentes, según la última cifra divulgada en 2024 por The Guardian.