Sucintamente nos referimos a cada uno de estos seis puntos.
El primer punto refiere a la necesidad de superar los estancamientos y los juegos suma cero en torno a ejes dicotómicos. Por un lado, los tecno determinismos – asumir que la tecnología es ya una innovación per se – y solucionismos – la creencia en que la tecnología es la respuesta a desafíos civilizatorios – o bien los tecno-escepticismos que implica desconfiar del potencial de cambio positivo que pueden implicar las tecnologías para la vida de la gente y de la sociedad en su conjunto.
Por otro lado, es cuestión de entender que la discusión sobre las tecnologías no quede acotada a enfoques prohibicionistas o de pausas en su desarrollo, o en solo abogar por introducir valores y criterios éticos que informen la razón algorítmica. El destacado filósofo político, Daniel Innerarity, argumenta, en su reciente libro “Una teoría crítica de la inteligencia artificial” (2025, editorial Galaxia Gutenberg), que alternativamente a planteamientos circunscriptos a la moratoria y a la ética, se trata de avanzar en la gobernabilidad democrática de los algoritmos. Esto implica poner foco, como bien arguye Innerarity, “en qué lugar ocupa la decisión política en una democracia algorítmica” y en fortalecer la libertad y la autonomía política en procesar y tomar decisiones sobre la influencia de los algoritmos en reglar nuestras vidas. En buena media, se requiere fortalecer el rol de la política para que efectivamente la democracia pueda desarrollarse en un mundo de creciente interdependencia y colaboración entre las inteligencias humana y artificial.
El segundo punto tiene que ver con asumir una perspectiva histórica en cuanto a que los cambios tecnológicos, por más intensos y disruptivos que sean, no se reflejan ipso facto en los cambios ambicionados y deseados en los estilos de vida de la gente y de las comunidades. Generalmente se constatan notorios desfasajes entre los usos prescriptos de las tecnologías, y las maneras efectivas en que las personas las usan. El escritor y periodista estadounidense, Nicholas Carr, lo ilustra con el caso de Facebook. La intención del programador y empresario estadounidense, Mark Zuckerberg, era que, a través de Facebook, las personas podrían compartir más, forjar una cultura más abierta y que se logrará un mejor entendimiento de las vidas y perspectivas de otros. La tecnología sería una palanca poderosa de cimentar sociedades más armoniosas y convivenciales.
Sin embargo, Carr cuestiona la idea de Zuckerberg de una concepción de sociedad como un sistema tecnológico que cumple una misión “social”. En efecto, Carr muestra que dicha misión se desmoronó ya que, a través de Facebook, se alimentó, el acoso, el discurso de odio, el espionaje y la polarización, entre otras cuestiones relevantes. Carr argumenta que lo que le faltó a Zuckerberg fue agudizar en el sentido de las personas como individuos que comprenden sus contextos, creencias, personalidad y motivaciones, y que, asimismo, su involucramiento en grupos tiene que ver con sus valores y/o intereses más que con protocolos técnicos de macheo de perfiles.
Asimismo, la adopción y más aún la apropiación de las tecnologías versa sobre la confianza que las personas tienen en sí mismas de poder usarlas competentemente. Basta pensar en la lenta apropiación del vehículo autónomo, en los miedos que genera, y como la IA puede manejar situaciones ambiguas en el tránsito y tomar decisiones en ausencia de criterios morales, o por su mediación.
Por otra parte, las tecnologías no “terminan” con otras tecnologías que preceden a su irrupción, sino pueden llevar a su reposicionamiento de lo que puede entenderse como viejo e inclusive obsoleto. Por ejemplo, los libros en formato digital no han llevado a la desaparición del libro impreso sino a que se diversifiquen y jerarquicen las razones de su utilidad. Por ejemplo, se suele mencionar en educación, la importancia de los libros impresos para sostener los aprendizajes fundacionales – por ejemplo, en la lectura y la escritura, cultivar la atención de las y los alumnos y coadyuvar al desarrollo del pensamiento autónomo.
Más aun, el destacado escritor y periodista mexicano, Juan Villoro, en el libro “No soy un robot. La lectura y la sociedad digital” (2024, editorial Anagrama) nos ilustra sobre como el libro impreso ha cambiado el mundo”, “su impacto redefine las sociedades” y “su tipografía es constante, pero su mensaje cambia con el tiempo y se presta a nuevas interpretaciones” (Villoro, 2024). Difícilmente se pueda imaginar una sociedad democrática donde el libro desaparezca como fuente de reflexión individual y colectiva, y conexión con los otros.
El tercer punto alude a la reproducción biológica, cultural y social de las sociedades sobre la base de un mundo de identidades y realidades globales y locales híbridas en nuestras maneras de ser, sentir, obrar y relacionarnos. Uno de los efectos más fuertes y duraderos de la pandemia del Covid-19 fue que la relación mundo físico – virtual se desbalanceó en favor de una identidad virtual que posteriormente a la pandemia, se fue consolidando como forma de vida que engloba, entre otros aspectos, los proyectos individuales y colectivos, los afectos, la educación, el trabajo, la recreación y la comunicación con los demás.
La era pospandemia no supuso necesariamente la búsqueda de renovados equilibrios entre lo presencial y lo virtual, sino que la irrupción disruptiva de la inteligencia artificial generativa (IAG) nos hizo aún más dependientes de nuestra identidad virtual. Ya no podemos suponer que la reproducción de nuestra sociedad va a anclarse en la presencialidad sino más bien nos enfrentamos al desafío que la misma recobre su significado asolado por la inmediatez disruptiva de las tecnologías.
Algunas de las discusiones recientes en educación ilustran esta necesidad de buscar nuevos balances. Por ejemplo, el afamado psicólogo estadounidense, Jonathan Haidt, en su reciente libro “La generación ansiosa: Por qué las redes sociales están causando una epidemia de enfermedades mentales entre nuestros jóvenes” (2024), identifica cuatro daños que perturban el desarrollo del infante: la falta de sueño, la privación social, la fragmentación de la atención y la adición. Haidt vincula estos daños con los usos y más bien abusos de las redes sociales. Sus recomendaciones para paliar esta situación reflejan más bien la combinación de enfoques prohibicionistas con promover el desarrollo del infante. Básicamente su enfoque se traduce en:
- padres y madres no permitan a sus hijas e hijos usar el smartphone antes de los 14 años. Se proponen portátiles básicos desprovistos del navegador de Internet y con pocas aplicaciones.
- no tener acceso a redes sociales antes de los 16 años a la luz de proteger el período más sensible del desarrollo cerebral antes de conectarse y exponerse a un flujo constante de comparaciones sociales y contenidos seleccionados por los algoritmos.
- no permitir el uso del smartphone en los centros de educación primaria y media de manera de fortalecer la atención personal, con los pares y con los educadores.
- promover la autonomía de los infantes y una mayor cantidad de juegos no vigilados es clave para que los mismos pueden desarrollar naturalmente sus competencias sociales.
Un cuarto punto pone el foco en los múltiples atributos de la especificidad de la inteligencia humana que la diferencia nítidamente de la inteligencia artificial a la luz de realzar y potenciar sus capacidades cognitivas, la diversidad de formas en que se desarrolla y ahondar en la complementariedad entre ambas inteligencias. Nos movemos aceleradamente hacia una relación de socios colaborativos y evolventes sustentada en una inteligencia híbrida, esto es, de mutuo reforzamiento entre las inteligencias humana y artificial.
Innerarity enumera con suma claridad un conjunto de propiedades que dan cuenta de la especificidad de la inteligencia humana, a saber:
- sentido común que refiere a entender intuitivamente y vivenciar situaciones cotidianas en contextos diversos y quizás ambiguos;
- reflexividad que nos permite profundizar en qué sabemos o ignoramos y/o comprendemos, y ser consciente de nuestras dudas;
- conocimiento implícito que implica reconocer que buena parte del conocimiento humano se da inconscientemente vinculado a nuestra presencia corporal y de ser en el mundo;
- inexactitud que alude a la versatilidad y flexibilidad en gestionar situaciones singulares e imprecisas que lleva consigo cometer errores ya que no se trata de aplicar al pie de la letra reglas establecidas; y
- aprendizaje que alude a las capacidades de “pensar y decidir sobre asuntos y situaciones para las que nunca habrá suficientes datos” y que implica economizar por la vía de un trato selectivo e incompleto de los mismos.
Como asevera Innerarity, la inteligencia humana, a diferencia de la artificial que es sin cuerpo, se sustenta en que el pensamiento y el conocimiento dependen de nuestro cuerpo que, asimismo, es clave como soporte de los procesos cognitivos. En efecto, la inteligencia humana es la combinación de “procesos cerebrales y corporales que incluyen conciencia de sí, afectividad e intuición” (Innerarity, 2025).
Un quinto punto refiere al fortalecimiento del rol del estado como orientador y estratega en forjar un ecosistema de innovación sustentado en la complementariedad entre las inteligencias humana y artificial como un eje transversal de una matriz actualizada y futurista de la política pública. No es cuestión de sumar inteligencia artificial al estado sino de articular esfuerzos públicos, privados y de la sociedad civil, para potenciar la cognición distribuida entre las inteligencias humana y artificial en áreas como la salud, la educación, el trabajo, la protección social, la movilidad y la seguridad. A vía de ejemplo, la cognición distribuida puede cumplir un rol clave en sostener la formación y capacitación a lo largo y ancho de toda la vida bajo un enfoque intergeneracional de compartir inteligencias.
Un ejemplo que avanza en la idea de roles complementarios entre las inteligencias humana y artificial es la iniciativa de revolución en el aula que se implementa en República de Corea desde el 2025. Esta responde al doble desafío, por un lado, de fortalecer la alfabetización ciudadana digital bajo una visión aperturista al mundo y de visualización de la educación como derecho humano; y, por otro lado, de potenciar los roles de alumnos y educadores aprovechando la transformación digital para avanzar hacia una educación más empática, personalizada, flexible y democrática en oportunidades. Esto implica promover una división de roles complementarios entre el denominado alto toque (“high-touch”) de los educadores y la alta tecnología (“high-tech”) facilitado por los textos digitales que incorporan la IA (conocidos como AIDT por sus siglas en inglés). La división de roles yace en que, por un lado, los educadores asumen la responsabilidad de ser mentores y consejeros que se concentran en promover el desarrollo de las habilidades de pensamiento crítico y creativo, de comunicación y colaboración en las y los alumnos; mientras que, por otro lado, los textos digitales IA se enfocan en ayudarlos en adquirir conocimientos y habilidades cognitivas, así como la apropiación de conceptos claves y contenidos esenciales.
La propuesta educativa se sustenta en una visión de estado garante de oportunidades para el universo de alumnas y alumnos por igual, que implica una fuerte inversión en infraestructura tecnológica y recursos digitales, el desarrollo de industrias tecnológicas que apoyan la educación pública basado en el interés nacional y en la apropiación localizada de las tecnologías digitales por los centros educativos. No se contraponen los intereses públicos y privados sino se establece con claridad que el estado lidera el ecosistema de educación tecnológica forjando alianzas con diversidad de instituciones y actores de dentro y fuera del país. Asimismo, se promueven mecanismos de aseguramiento de la calidad de las tecnologías educativas, su seguridad y confiabilidad, así como un plan riguroso y progresivo de experimentación, evaluación y expansión de las AIDT basado en los usos de evidencia y calibración de impactos (Asim, Kim & Aedo, 2024).
El sexto y último punto alude a las incertidumbres y turbulencias que se generan sobre los futuros de las sociedades. Nos movemos entre péndulos que abruptamente transitan desde un optimismo tecnológico donde las elites tecnológicas nos encandilan con la mejora y prolongación de la vida sin umbrales, al catastrofismo tecnológico que implicaría la subordinación de la inteligencia humana a su superinteligencia con poderes infinitos. O como señala el periodista y filósofo español, Josep Ramoneda, “nos movemos entre el escepticismo tecnológico frente a las promesas de los magnates tecnológicos y el temor al auge de los autoritarismos posdemocráticos” (Ramoneda, El País, 24 de agosto del 2025). Contrariamente a planteamientos que socavan el pensamiento autónomo y la construcción colectiva en democracia, creemos necesario ahondar en visiones de la sociedad que, ancladas en el humanismo, nos permitan ambicionar sociedades más sostenibles, inclusivas y justas. Repensar el humanismo nos va a conectar como civilización y facilitar los diálogos entre credos y culturas.
Deberíamos darnos cuenta que como bien argumenta el profesor de ética y director del instituto de ética social ISE en la Universidad de Lucerna, Peter Kirchschläger, que la “IA” no es más que un conjunto de herramientas técnicas diseñadas para determinadas funciones cognitivas”, y “no son capaces de una verdadera comprensión y no son ni objetivos, ni justos, ni neutrales” (Kirchschläger, Proyect Syndicate, 2024). Más que poner el acento solo en las tecnologías, lo que nos está faltando es fortalecer la confianza en el ser humano, en la diversidad de la inteligencia humana, en la democracia como modus de vida y espacio deliberativo público, en la libertad y el pensamiento autónomo, y en la creatividad, así como de empatizar y colaborar con similares y diferentes bajo una visión de humanidad compartida. No perdamos el foco en lo que importa si aspiramos a forjar mejores porvenires.