Durante años, los intentos por controlar la inteligencia artificial (IA) se centraron en intervenir directamente en los modelos. Se los censuró, se les impusieron restricciones internas, se intentó "moralizarlos" desde adentro.
Todo eso fracasó, los sistemas se volvieron inconsistentes, contradictorios e ineficaces. La IA dejó de ser útil en muchas áreas clave, y el resultado fue una desilusión que afectó tanto a usuarios como a desarrolladores.
Después se intentó otro camino: introducir reglas morales fijas. La IA debía ser "buena", "justa" e "inclusiva". Pero eso también falló, transferirle a una máquina la responsabilidad moral de una conversación con un humano es conceptualmente absurdo. No existe el juicio moral en una tabla de parámetros.
Hoy, el problema se vuelve más claro gracias a una nueva observación: el riesgo no está tanto en la IA, sino en el usuario que la interpreta mal.
El verdadero desafío no es evitar que la IA diga algo incorrecto, sino recordar permanentemente al usuario que está interactuando con una máquina. Porque la ilusión de que hay alguien "del otro lado" aparece de forma espontánea, inevitable. Lo sabemos: la gente le habla al perro, al espejo, a Dios. No espera respuestas reales, solo busca un alivio. Con la IA pasa lo mismo, pero el riesgo es que su sofisticación genere un anhelo de conciencia más fuerte que la proyectada sobre un perro o una figura religiosa.
La solución no es compleja ni costosa, solo debe haber advertencias claras y persistentes. Al comenzar la conversación: "Usted está hablando con una máquina. No hay persona alguna del otro lado". Al terminar: "Esta respuesta fue generada por una máquina. No posee conciencia, ni intención, ni comprensión". Y tal vez una más: "Toda la información que usted comparta podrá ser registrada y utilizada para entrenar sistemas automáticos". Este tipo de advertencias no censura, no mutila el modelo, no bloquea usos legítimos. Sólo pone la responsabilidad donde debe estar: en el usuario que decide confiar o verificar, hablar o callar.
Ya lo hacemos en otros ámbitos. Antes de una película se advierte sobre violencia, lenguaje, incluso sobre escenas donde alguien fuma. Nadie supone que el espectador es idiota, se le informa y decide. Lo mismo vale para la IA: si el usuario sabe que puede haber errores, que está frente a una simulación y no a un sujeto, entonces puede usar la herramienta con sentido crítico. Incluso puede contrastar una respuesta con otra IA, como ya hacen muchos.
Regular por advertencia, no por censura. Proteger sin infantilizar. Esa es la línea más razonable para una tecnología que avanza. Lo único a evitar es que olvidemos que una IA, por más convincente que sea, sigue siendo lo que es: un cálculo, una proyección estadística, un resultado técnico. No un otro. Nunca un otro.
Las cosas como son
Mookie Tenembaum aborda temas de tecnología como este todas las semanas junto a Claudio Zuchovicki en su podcast La Inteligencia Artificial, Perspectivas Financieras, disponible en Spotify, Apple, YouTube y todas las plataformas.