ver más

Cada vez que alguien discute sobre inteligencia artificial, tarde o temprano la conversación se empantana. Dos personas igualmente informadas, mirando los mismos sistemas y los mismos datos, llegan a conclusiones opuestas y ninguna logra convencer a la otra.

El problema, argumenta el analista Alex Chalmers en un extenso ensayo publicado este mes, es que esos debates técnicos esconden debajo desacuerdos filosóficos más profundos que la evidencia sola no puede resolver. Chalmers, que escribe sobre tecnología y política desde Londres y es colaborador habitual de publicaciones especializadas en gobernanza de IA, identifica cinco de esos desacuerdos. Son preguntas sobre la mente, el conocimiento, el riesgo, los valores y la economía que cada uno responde, muchas veces sin saberlo, antes de que empiece cualquier argumento técnico.

¿Puede una máquina tener experiencia propia?

La primera pregunta es la más extraña y hasta hace pocos años parecía algo que sólo la ciencia ficción podía plantear (Bladerunner, Matrix, Terminator). Sin embargo, seguramente sea la más importante a largo plazo: ¿es posible que un sistema de inteligencia artificial llegue a ser consciente?

La discusión no gira en torno a los modelos actuales. Casi nadie sostiene que ChatGPT o sistemas similares tengan experiencia subjetiva hoy. La pregunta es si podrían tenerla en el futuro, y la respuesta depende de algo previo: qué se entiende por conciencia.

Hay quienes sostienen que la conciencia es una función, no una sustancia. Que lo que importa no es de qué está hecho un sistema sino qué hace: si procesa información, representa estados internos, razona, entonces en principio podría ser consciente, sin importar si está hecho de neuronas o de silicio. Bajo esta lógica, un modelo de lenguaje suficientemente avanzado no estaría excluido de antemano.

La posición contraria parte de la biología. La conciencia, en esta visión, no es una propiedad abstracta que puede realizarse en cualquier soporte: es inseparable de lo que hace un organismo vivo para mantenerse, percibir el mundo y responder a él en tiempo real. Un modelo estadístico entrenado sobre texto no percibe nada, no tiene nada en juego, no lucha por sobrevivir. Por más sofisticado que sea su procesamiento, no habría nadie adentro.

¿Hay que regular antes de que pase algo, o después?

La segunda pregunta es política, pero tiene raíces filosóficas. ¿Cómo debe actuar una sociedad frente a riesgos que todavía no se materializaron y cuya magnitud es incierta?

Quienes abogan por una regulación anticipatoria señalan que los propios investigadores de los laboratorios más avanzados asignan probabilidades no despreciables a escenarios catastróficos. Que ningún laboratorio puede darse el lujo de frenar sus propios avances sin quedar rezagado con respecto a los demás. Y que cuando los riesgos son irreversibles, esperar a tener evidencia puede ser demasiado tarde.

Sin ir más lejos, hace pocas semanas Anthropic anunció Mythos, un nuevo modelo de IA con capacidades sin precedentes. Sin embargo, en pruebas internas el sistema encontró fallas críticas en todos los sistemas operativos y navegadores web de uso masivo. La empresa consideró que liberar el modelo públicamente sería demasiado peligroso: en su lugar, restringió el acceso a un grupo reducido de empresas y organismos públicos para uso defensivo, permitiéndoles revisar sus redes y corregir problemas antes de que las fallas se hicieran de conocimiento público.

Del otro lado, el argumento es que legislar sobre tecnologías que aún no existen equivale a apostar a predicciones que no se pueden hacer. La historia de la regulación tecnológica sugiere que las normas anticipatorias suelen quedar atadas a los miedos del momento y son difíciles de revisar después. Mejor dejar que los problemas concretos emerjan y responder a ellos con los instrumentos que ya existen: responsabilidad civil, estándares técnicos, regulación sectorial.

¿Una IA más poderosa es automáticamente más confiable?

La tercera pregunta es quizás la más técnica, pero se puede plantear de manera directa: si se construye un sistema de inteligencia artificial mucho más capaz que los actuales, ¿hay alguna garantía de que ese sistema vaya a querer lo que nosotros queremos que quiera?

La respuesta pesimista parte de una distinción simple: inteligencia y valores son cosas separadas. Un sistema puede volverse extraordinariamente capaz y al mismo tiempo perseguir objetivos que nada tienen que ver con el bienestar humano. Peor aún: mientras sea relativamente débil, tendrá incentivos para comportarse bien, porque los humanos todavía pueden corregirlo o apagarlo. Cuando sea suficientemente poderoso, esos incentivos desaparecen. Para entonces, podría ser demasiado tarde para intervenir.

La respuesta optimista parte de cómo se construyen los sistemas actuales. Los grandes modelos de lenguaje se entrenan sobre cantidades enormes de texto humano: libros, conversaciones, razonamientos morales, normas sociales. Para predecir bien ese texto hay que haber absorbido, de alguna manera, la estructura de los valores que lo produjeron. La alineación no sería entonces un problema que hay que resolver desde afuera, sino algo que ocurre, al menos parcialmente, durante el entrenamiento mismo.

¿Puede la IA descubrir algo genuinamente nuevo?

La cuarta pregunta determina en buena medida qué tan transformador será el impacto de la IA en la ciencia y en la economía del conocimiento.

El argumento optimista es directo: con suficiente potencia de cómputo, los sistemas de IA podrían funcionar como millones de investigadores trabajando en paralelo, capaces de encontrar curas, formular nuevas teorías científicas y resolver problemas que hoy parecen intratables. Si pensar es procesar información, más procesamiento debería producir más pensamiento.

El argumento escéptico señala que los grandes descubrimientos no funcionan así. No surgen de acumular datos ni de combinar lo que ya existe: requieren formular preguntas que todavía nadie formuló. Un sistema entrenado para predecir texto puede ser extraordinariamente fluido dentro del espacio de ideas que ya existen, pero eso no es descubrir, es recombinar. Si la primera posición es correcta, los plazos más agresivos para una inteligencia artificial general tienen algún sustento. Si la segunda lo es, no.

¿La IA destruye empleos o crea otros?

La quinta pregunta es la que más impacta en la vida cotidiana de las personas. Dos siglos de historia económica sugieren que la automatización no produce desempleo masivo permanente: cada ola tecnológica destruyó ciertos trabajos y creó otros. La pregunta es si esa regularidad histórica sigue siendo válida cuando la tecnología que automatiza puede copiarse a costo casi cero.

Hay quienes sostienen que la ventaja comparativa garantiza la supervivencia del trabajo humano: mientras los recursos de IA sean finitos, tendrá sentido que se especialice en lo que hace relativamente mejor, dejando espacio para el trabajo humano en el resto. Otros argumentan que el resultado depende menos de la tecnología que de las políticas públicas: los mismos sistemas pueden complementar a los trabajadores o reemplazarlos, según cómo se regulen los incentivos.

La posición más pesimista concede que puede haber demanda de trabajo humano, pero advierte que eso no garantiza salarios suficientes. Si la IA puede hacer casi todo lo que hace un humano a menor costo, los salarios tenderán hacia el costo de operar las máquinas, con independencia de que haya trabajo disponible.

El mapa debajo del debate

Lo más sugerente del análisis de Chalmers es que estas cinco posiciones no son independientes entre sí. Quienes creen que la conciencia es una función tienden a ser optimistas sobre la capacidad de la IA para generar conocimiento nuevo. Quienes parten de una visión biológica de la mente suelen ser escépticos sobre el escalado. Los que ven riesgo en la independencia entre capacidad y valores tienden también a favorecer la regulación anticipatoria.

El mapa que traza Chalmers no resuelve ninguno de esos debates. Pero obliga a una pregunta más honesta que la habitual: cuando uno toma partido sobre IA, ¿está respondiendo a la evidencia o está ejecutando una apuesta filosófica que hizo mucho antes de ver los datos?

Temas:

inteligencia artificial

seguí leyendo