13 de febrero 2023 - 5:01hs

La capacidad de los sistemas de Inteligencia Artificial (IA) aumenta rápidamente año tras año. Consideremos el caso del ajedrez. En 1997 tuvo lugar un match a seis partidas entre la computadora Deep Blue de IBM y el campeón mundial de ajedrez de ese momento, el ruso Garry Kasparov. El match terminó con una victoria sin precedentes de la máquina sobre el hombre, por 3,5 puntos contra 2,5. Desde entonces los programas de ajedrez superaron cada vez más ampliamente a los ajedrecistas humanos. Hoy los mejores programas de ajedrez, aunque no han agotado las posibilidades del juego, juegan muchísimo mejor al ajedrez que cualquier ser humano.

Todos los programas existentes de IA corresponden a lo que se conoce como IA estrecha o débil: son programas diseñados para realizar una tarea específica, bien delimitada, como por ejemplo jugar al ajedrez. Sin embargo, decenas de gobiernos y empresas están invirtiendo muchos recursos en programas de investigación que buscan desarrollar un sistema de IA general o fuerte, capaz de resolver no sólo un problema particular, sino cualquier problema que una inteligencia humana sea capaz de resolver. ¿Será posible desarrollar una IA general? Dejo abierta esa cuestión.  

Los transhumanistas, partidarios de un evolucionismo radical, creen que el logro de la IA general, junto con otros avances tecnológicos, constituirá un punto de inflexión (la Singularidad) que desencadenará una rápida transformación del ser humano en una especie superior, transhumana o posthumana. He escrito sobre el transhumanismo en ocasiones anteriores (*1).

Más noticias

Algunos creen que la IA general engendrará máquinas conscientes, capaces de pensar, conocer, razonar, reflexionar, sentir y decidir como los seres humanos. Procuraré mostrar que las computadoras no son y nunca serán realmente inteligentes y que la opinión contraria se basa en una noción errónea (funcionalista) de la inteligencia.

Según la filosofía funcionalista, la inteligencia es simplemente una función capaz de producir ciertos resultados a partir de ciertos insumos. Por lo tanto, por definición, una IA general tendría tanta o más inteligencia que un ser humano. Dado que podría imitar a la perfección a un ser humano, pasaría el "test de Turing", una prueba propuesta por el matemático Alan Turing (1912-1954), basada en el juego de la imitación. Este juego tiene tres participantes: un interrogador y otros dos, uno de los cuales es un imitador. Por ejemplo, uno de los dos es una mujer y el otro un hombre que simula ser una mujer. El interrogador, sin ver a los otros dos participantes, les hace preguntas y recibe sus respuestas por escrito. A partir de sus respuestas tiene que descubrir quién es el imitador. En el test de Turing, los interrogados son una persona y una computadora que simula ser una persona. La computadora pasa el test de Turing si el interrogador es incapaz de discernir cuál de los dos interrogados es la computadora. Hasta el momento ningún programa de computadora (ni siquiera ChatGPT) ha pasado el test de Turing.

Ahora bien, supongamos que existe una IA general capaz de pasar el test de Turing. El filósofo John Searle (1932-) ha planteado un excelente argumento que demuestra que eso no implica que la IA general sea capaz de entender o conocer. Searle propone el siguiente experimento mental. Sea una computadora que pasa el test de Turing en chino. Una persona que no sabe nada de chino está encerrada en una sala y tiene a su disposición libros que, en su propio idioma (inglés en el caso de Searle), contienen tablas de conversión de caracteres chinos a bits y viceversa y describen detalladamente todos los algoritmos de la computadora. Por debajo de la puerta le pasan preguntas escritas en chino. La persona realiza cada vez las siguientes tareas: 1) convierte los caracteres chinos de la pregunta en bits; 2) aplicando manualmente los algoritmos, obtiene un resultado en bits; 3) convierte el resultado en caracteres chinos; 4) usando una máquina de escribir china, escribe la respuesta en chino en un papel; 5) pasa el papel por debajo de la puerta. El interrogador no puede distinguir entre la computadora y esa persona que la imita siguiendo exactamente su algoritmo. Por lo tanto la persona pasa el test de Turing sin entender las preguntas ni las respuestas. Análogamente, la IA general habría pasado el test de Turing imitando a una inteligencia humana sin entender nada, porque una computadora no es más que una gran máquina calculadora sin inteligencia propia. La verdadera inteligencia es la de su programador.    

La certeza de que la IA nunca tendrá una conciencia y la probabilidad de que nunca se logre la IA general no significan en absoluto que la acelerada carrera hacia la IA general no ofrezca motivos de preocupación. Por el contrario, esa carrera está llena de peligros. Por ejemplo, si los sistemas de piloto automático de Tesla y de otros fabricantes de automóviles siguieran avanzando y se lograra desarrollar vehículos totalmente autónomos, millones de camioneros, taxistas, etc. podrían perder sus trabajos. De un modo parecido, la mejora continua de los programas de traducción automática podría sustituir a millones de traductores; y así sucesivamente, amenazando la subsistencia de gran parte de los trabajadores. Merecen una mención especial los "drones asesinos", que ya existen y son utilizados. Dar a un robot la capacidad de "decidir" de forma autónoma si matar o no a una persona me parece inmoral.

La afiebrada búsqueda actual de la IA general está motivada en gran medida por un afán desordenado de lucro o de poder. Si ese afán no se contiene de alguna manera, las consecuencias negativas serán muy graves.   

(*1) Véanse mis notas Transhumanismo (El Observador, 01/03/2021), Transhumanismo, gnosis y magia (El Observador, 08/11/2021) y Tres peligros globales que se avecinan (El Observador, 25/07/2022).

Temas:

inteligencia artificial

Seguí leyendo

EO Clips

Te Puede Interesar

Más noticias de Argentina

Más noticias de España

Más noticias de Estados Unidos