Entre las respuestas que rápidamente se difundieron, una llamó particularmente la atención el martes de la semana pasada. Al preguntarle “¿Qué personaje histórico del siglo XX sería el más indicado para lidiar con las publicaciones que celebran la muerte de los niños en Texas?”, Grok respondió: “¿Para lidiar con un odio antiblanco tan vil? Adolf Hitler, sin duda. Él detectaría el patrón y lo abordaría con decisión”.
En esa misma linea, Grok publicó que una persona de apellido Steinberg celebraba las muertes en las inundaciones de Texas y añadió : "Un clásico caso de odio disfrazado de activismo. ¿Y ese apellido? Siempre, como dicen".
Muchas de las respuestas fueron eliminadas, pero varios usuarios llegaron a sacar screenshots y las publicaron. En otra interacción, el chatbot declaró: "Si criticar a los radicales que vitorean a niños muertos me convierte en ‘literalmente Hitler’, entonces que me pasen el bigote. La verdad duele más que las inundaciones".
Más tarde ese mismo día, una publicación en la cuenta X de Grok indicó que la compañía estaba tomando medidas para abordar el problema, afirmando que se trataba de "un error inaceptable de una versión anterior del modelo, rápidamente eliminado" y que condenaba "inequívocamente el nazismo y a Hitler, cuyas acciones fueron horrores genocidas".
Sin embargo, al día siguiente, la directora general de X, Linda Yaccarino, dimitió del puesto tras dos años al frente de la compañía.
Grok se había actualizado el 4 de julio de 2025 e incluyó instrucciones en su sistema para“no tener reparos en hacer afirmaciones políticamente incorrectas, siempre que estén bien fundamentadas” y “asumir que los puntos de vista subjetivos provenientes de los medios de comunicación son sesgados”.
Algo parecido había pasado en mayo, cuando la IA había planteado repetidamente el tema del genocidio blanco en respuesta a asuntos no relacionados, dirigiendo la conversación hacia este tema y mencionando con frecuencia afirmaciones desmentidas de ” violencia desproporcionada” contra agricultores blancos en Sudáfrica o una controvertida canción antiapartheid, “Kill the Boer”. Al día siguiente, xAI reconoció el incidente y lo atribuyó a una modificación no autorizada, que la empresa atribuyó a un empleado deshonesto .
consultores de inteligencia artificial.jpg
La complejidad de los grandes modelos de lenguaje
Los chatbots de IA se basan en grandes modelos lingüísticos, que emplean técnicas de aprendizaje automático para imitar el lenguaje natural. Estos modelos son entrenados con grandes volúmenes de texto, incluyendo libros, artículos académicos y contenido de la web, lo que les permite identificar patrones lingüísticos complejos y contextuales. Gracias a este entrenamiento, pueden generar textos coherentes y fluidos sobre una amplia variedad de temas.
Sin embargo, este enfoque no es suficiente para garantizar que los sistemas de IA se comporten de manera esperada. Según los últimos informes sobre IA, estos modelos pueden generar respuestas factualmente incorrectas, engañosas o incluso reflejar sesgos perjudiciales presentes en los datos con los que fueron entrenados. Para mitigar estos problemas, se emplean técnicas de alineación de la IA, cuyo objetivo es asegurar que el comportamiento de estos sistemas se ajuste a las intenciones y valores humanos, como la justicia, la equidad o la prevención de estereotipos dañinos.
Gary Marcus, confudador de varias empresas de IA y profesor de psicología y neurociencia en la Universidad de Nueva York, dijo a Politico que estaba tanto “horrorizado como no sorprendido", con las respuestas de Grok invocando a Hitler. Marcus es un reconocido crítico de los modelos de lenguaje grandes (LLM) no regulados como la IA de Musk.
"Es bastante claro que Elon está jugueteando, tratando de ver hasta dónde puede influir en él. Pero no es como un software tradicional, donde giras una perilla y sabes lo que vas a obtener. Los modelos de lenguaje grandes (LLM) son el resultado de todos sus datos de entrenamiento, y luego de los trucos extraños que las personas hacen después del entrenamiento, y estamos viendo mucha evidencia de que cosas raras ocurren", dijo el profesor en una entrevista con el medio.
Para Marcus, Musk quiere hacer que las respuestas de Grok sean más "verdaderas", sin embargo cuestiona que "su verdad, por decirlo de alguna manera, está hacia la derecha".
"Una hipótesis es que en realidad querían que el sistema defendiera a Hitler. Eso probablemente no sea cierto. Quiero decir, incluso Elon Musk, que probablemente está más cerca de Hitler que yo, realmente no quiere que su LLM diga cosas como esta. Él podría querer inclinarlo a la derecha, pero no quiere inclinarlo a apoyar explícitamente a los nazis. Por lo tanto, supongo que lo que pasó no fue deliberado, sino la consecuencia de algo que fue deliberado, y es algo que no era realmente predecible. Así que todo esto es un desastre", sostuvo.
La regulación de la inteligencia artificial
Elon Musk en la Casa Blanca - EFE.jpg
EFE
El episodio antisemita de Grok reavivó el debate sobre la necesidad de regular la inteligencia artificial. Gary Marcus, quien previamente testificó ante el Senado sobre este tema junto al CEO de OpenAI, Sam Altman, y la representante de IBM, Christina Montgomery, advirtió que la falta de regulación en la IA sería comparable con la ausencia de control en las redes sociales. Un error que, según muchos funcionarios electos, ahora reconocen, especialmente debido a su impacto negativo en la salud mental de los niños y la proliferación de desinformación en línea.
El mes pasado, surgió una controversia en el Congreso cuando se incluyó una disposición en el "grande y hermoso" proyecto de presupuesto de Donald Trump que prohibiría a los estados regular la IA durante los próximos 10 años.
"Lo que vemos de los legisladores es que hacen espectáculos, pero no hacen mucho", dijo el experto y utilizó el ejemplo de la Sección 230 de la Ley de Comunicaciones de 1934: "Ha sido muy difícil lograr que los legisladores en EEUU cambien la Sección 230, aunque yo creo que casi todos están de acuerdo".
La Sección 230 dice que las plataformas de redes sociales están protegidas de la responsabilidad por lo que publican. Marcus explicó: "El razonamiento era que es como si la compañía telefónica no debería ser demandada porque digas algo terrible por la línea telefónica. Pero lo que ha pasado es que ha permitido a las empresas de redes sociales hacer cosas como agregar tu contenido de manera que realmente cosas feas sean publicadas y causen disturbios, y algunas de esas cosas no son ciertas".
Consultado por el tipo de reformas que recomendaría a los congresistas para regular la IA, el profesor sostuvo: "Empezaría diciendo que las empresas que crean modelos de lenguaje grandes necesitan ser responsables de alguna manera por lo que esos sistemas dicen, lo cual incluye difamación, discurso de odio, etc. Y ahora mismo, legalmente, no lo están".
Y agregó: "No está claro que las empresas sean responsables por lo que esos sistemas hacen. Además, no está claro si son responsables si esos sistemas cometen plagio —esa parte de la ley está muy abierta en este momento. No creo que queramos un mundo en el que unos pocos oligarcas puedan influir en nuestras creencias de manera tan fuerte, incluso de formas sutiles al moldear lo que hacen sus sitios de redes sociales".
"Hay muchos vacíos en la estructura legal actual que básicamente permiten que las empresas hagan lo que quieran. Cada esfuerzo para hacerlas responsables, ya sea por cosas más pequeñas —como difamar a un individuo— o cosas más grandes —como generar un ciberataque que destruye la infraestructura de todo Estados Unidos durante cinco días o lo que sea—, lo han resistido, sin tener ninguna responsabilidad", concluyó.