1 de noviembre de 2025 5:00 hs

El algoritmo nos rodea y nos define. Elige la música que escuchamos. Las películas y series que vemos. La forma en la que interactuamos con nuestros amigos y familiares. La manera en la que buscamos relaciones sexoafectivas. Al menos, eso sucede en un escenario en el que le entregamos el control total de nuestras decisiones. Pero ¿podemos hacer lo contrario? Eso es lo que intenta dilucidad el autor argentino Joan Cwaik en su libro El algoritmo. ¿Quién decide por nosotros?, que acaba de publicar Planeta.

Cwaik, que divulgador especializado en tecnologías emergentes y cultura digital, y que además es columnista sobre estos temas en El Observador, pasó por Uruguay en los últimos días en una visita fugaz y dedicó parte de su tarde montevideana a conversar sobre las formas en las que hoy el algoritmo es el principal instrumento de poder, así como algunas de las decisiones que podemos implementar para tener una "dieta algorítmica" más saludable.

Embed - Joan Cwaik revela cómo los algoritmos toman nuestras decisiones

A continuación, un resumen de la conversación que Cwaik mantuvo con El Observador.

Más noticias

El libro nace a partir de una “incomodidad personal”. ¿De qué se trató?

De que hoy en día sentimos que tenemos mucha autonomía en este mundo de pantallas, exceso de información y empoderamiento que nos da la tecnología, pero la pregunta es si eso es obediencia digital o es realmente una autonomía real, o la ilusión de autonomía. Siento que hoy tenemos mucha conveniencia algorítmica, mucha comodidad producto de las tecnologías contemporáneas, y es muy difícil hacerle frente a eso. ¿Cómo le hacemos frente a una tecnología que nos conoce tan bien, con que tenemos una barrera tan baja, un vínculo tan cómodo? Lo que me preocupa es que hoy eso es barato, pero mañana no sé cuánto nos va a costar. Hoy es barato preguntarle al Chat GPT cómo vestirse, qué comer, qué desayunar. Pero ¿cuánto nos va a costar esa delegación del pensamiento? ¿Qué estamos haciendo con el ser humano? Yendo a la Inteligencia Artificial, a mí no me preocupa que la tecnología piense cada vez más como humanos, me preocupa que los humanos pensemos cada vez más como máquinas.

¿Te parece que estamos anestesiados frente a estos estímulos?

Sí, es tan cómodo y da tantas recompensas aparentes que es difícil despertarse. En este cruce entre tecnologías y humanidad, te encontrás con dos grandes cosmovisiones: por un lado está Harari diciendo que nos vamos a quedar todos infelices, deprimidos y desplazados producto de la tecnología. Y está Byung-Chul Han, que cada vez más en sus ensayos recupera el rol de lo humano. Yo tengo mis momentos, pero hoy soy optimista con respecto a que la tecnología nos genera baldazos de agua fría cuando nos hace reaccionar de alguna forma. Pero es cada vez más difícil tener estos pequeños actos de conciencia. Y sin lugar a dudas siento que vivimos anestesiados producto de las tecnologías emergentes, y que esa anestesia es cómoda, gratificante, nos genera una sensación de bienestar, de control y de autonomía, pero hay un montón de razones por detrás.

Razones económicas, por ejemplo.

Sí. Tenemos que romper el mito de que las cosas son neutrales. Nada es neutral. Todo algoritmo tiene ideología: ideología geopolítica, comercial, monetaria, matemática. Estamos expuestos a tantas cosas que aparentemente son gratuitas, pero el precio que estamos pagando es esa anestesia.

image

¿Y un costo cognitivo?

Muchas veces se habla del concepto de sedentarismo cognitivo, del que hablan Santiago Bilinkis y Mariano Sigman, y es cierto. ¿Qué estamos haciendo con nuestra capacidad cognitiva producto de la delegación del pensamiento? Quizás hay algo también de nostalgia, de que cada generación trae consigo una forma de ver las cosas, o de pensar los procesos, y de que todo pasado fue mejor. O ahora con El Eternauta, eso de que "lo viejo funciona". Pero lo nuevo también funciona. Lo nuevo funciona muy bien. Los modelos de lenguaje ya funcionan muy bien. El trap funciona muy bien. Los artistas emergentes funcionan muy bien. No vamos a negar eso. Y cada vez mejor, además. Hoy no querer usar IA es como no querer usar la calculadora o el autocorrector de Word. A las herramientas que tengo disponibles las tengo que usar. Sería muy tonto de mi parte, sabiendo que existen este tipo de tecnologías, que decidas no usarlas. Yo puedo decidir, por ejemplo, no usar apps de citas, y conocer gente a la antigua. Puedo elegirlo. Ahora, me estoy perdiendo un mundo gigante para conocer gente. ¿Puedo elegir, no sé, escribir un libro sin inteligencia artificial? Sí, claro. Pero me estoy perdiendo también de algo. Quizás lo hacemos por una búsqueda de la eficiencia constante, porque es verdad que este mundo nos obliga a una hiper productividad. Todos somos como ratas de laboratorio corriendo detrás de las cosas.

Del libro se desprende que tu postura, en ese sentido, es pensar en el algoritmo de forma responsable, pero no demonizarlo.

Es que hoy vivimos rodeados y a merced de los algoritmos, sería muy ingenuo de nuestra parte negarlos. Hace poco escuché una frase que me gustó que decía que los algoritmos son como el sexo en la adolescencia. Todo el mundo habla de él, pero nadie realmente entiende lo que hay detrás. Mi propuesta es empezar a entender cómo funcionan los algoritmos en los ejes más importantes de nuestra vida cotidiana. Por eso el libro cubre amor, amistad, ansiedad, política, entretenimiento, economía, la verdad, incluso conceptos como la muerte, que también está atravesada por los algoritmos. Sin demonizar, sin hacer una apología, porque las dos grandes reacciones que se dan en torno a las tecnologías emergentes son, por un lado, mucho miedo, y por el otro el entusiasmo tecnológico exacerbado. Mi propuesta es revalorizar los actos humanos en este proceso, que a veces los perdemos de vista.

Citás, por ejemplo, al filósofo francés Eric Sadin, que dice que "el problema no es la tecnología, sino su colonización absoluta en nuestras decisiones". ¿Cómo notás que ha evolucionado esa perspectiva en los últimos años?

El humanismo digital surgió como una tendencia en varios países para tomar a la tecnología como una herramienta y no como una colonizadora de nuestras decisiones. Podemos decir, por ejemplo, que la tecnología es como un martillo: puede servir para construir una casa o para partirle la cabeza a una persona. Pero va mucho más allá que eso, más allá de la idea de la herramienta, porque en este caso son agentes. Esa es la principal diferencia de las tecnologías emergentes que estamos enfrentando hoy. O sea, no son simples martillos. Son martillos que, controlados por grupos de poder, pueden llegar a tomar cierto tipo de acciones o empezar a cambiar cierto tipo de cosas. Y no existe un organismo de transparencia algorítmica internacional hoy en día. Si yo le pregunto al Chat GPT cuál es la mejor cafetería de Montevideo, me va a contestar por estadística o probabilidad matemática, y eso es altamente manipulable. Por eso ahora se está hablando de los sesgos pagos, que vos puedas pagar un sesgo en un modelo de lenguaje para que direccione sus respuestas. Grok de X fue la primera en anunciar públicamente que eso se va a poder hacer. En ese sentido, hoy se da lo que algunos llaman un nuevo tipo de desigualdad, un nuevo tipo de brecha social: la desigualdad algorítmica. Todos aquellos que no terminen de comprender cómo operan estas tecnologías, la gente que está detrás, los intereses que hay, el modelo de negocio, están mucho más expuestos a que su vida corra en piloto automático. Están mucho más expuestos a que los moldee. Por eso la pregunta es fundamental: ¿quién termina decidiendo por nosotros? ¿Y cómo nos vinculamos? Estamos en un mundo donde la amistad, por ejemplo, queda supeditada a la interacción y no a la calidad. Estamos en un mundo donde tenés un amigo que lo único que hace es mandarte 40 reels en Instagram por día, pero no tiene idea nada de tu vida. Whatsapp ahora está lanzando una función que te va a resumir en cinco bullets los 200 mensajes que se mandan en un grupo. ¿Qué estamos fomentando ahí?

¿Deberíamos tener una “dieta algorítmica” más responsable?

Sí. Así como hay una tendencia cada vez mayor a cuidarnos físicamente, deberíamos empezar a pensar en una buena nutrición digital, en una dieta digital. Estando entre siete y diez horas expuestos a pantalla todos los días, ¿qué estamos consumiendo? Yo puedo comer hamburguesas y papas fritas un día, dos. Ahora, si mi alimentación se basa en hamburguesas, bueno, no soy experto en nutrición tengo claro que podría llegar a haber un potencial problema de salud. Con esto es igual. Podemos ver TikTok, pero si me acuesto a las 4 de la mañana porque no puedo cortar por lo adictivo que es y el día siguiente no rindo del laburo, hay un problema. Si la interacción con mi amigos se basa en mandarnos reels o stickers por Whatsapp y no hay ningún otro tipo de interacción de calidad podría potencialmente haber un problema. Ahí es donde hay que empezar a tomar esas micro decisiones. Por eso creo que estamos siendo bastante irresponsables con el empoderamiento que nos da la tecnología. Y yo no soy ningún gurú de la responsabilidad, porque también caigo en eso. Pero tenemos que ponernos a pensar en estos pequeños actos de conciencia, estos pequeños actos de rebeldía. No significa cortar con la tecnología, significa caminar con los ojos un poco más abiertos, pensar en las decisiones que estamos tomando.

¿El algoritmo es el gran agente de control y poder de esta era?

Los algoritmos hoy en día están posicionados como el quinto poder de la sociedad contemporánea. El algoritmo no tiene congreso, no tiene jueces, no tiene representantes políticos y controla a los otros cuatro poderes. En el siglo XX, las personas más poderosas del mundo eran el presidente de Estados Unidos, el presidente de Rusia, el presidente de Japón, el de Alemania. Hoy en día son quienes controlan los algoritmos. Tenemos estas cinco o seis grandes corporaciones megatecnológicas que controlan la interacción de miles de millones de personas en el mundo. Acá nos asusta la vigilancia del Estado, pero aceptamos que las empresas de delivery nos sigan absolutamente a cualquier lado.

En ese sentido, ¿el libre albedrío hoy es una ilusión o todavía lo podemos recuperar?

Siento que hay espacio para recuperarlo todavía. Y vuelvo a este punto: no se trata de demonizar ni de hacer una apología, no se trata los apocalípticos e integrados de Umberto Eco, se trata de caminar este laberinto con los ojos un poco más abiertos, porque la tecnología tiene mucha luz también. Los algoritmos tienen mucha luz en ese sentido. Yo soy lo más lejano a un tecnofóbico que hay. Me encanta la tecnología. Pero creo que tenemos que volver a recuperar las pequeñas decisiones todos los días para que nuestra vida no corra en piloto automático. Esas pequeñas decisiones hoy pueden resultar caras o baratas. Mañana no sé cuánto nos van a costar.

EO Clips

Te Puede Interesar

Más noticias de Argentina

Más noticias de España

Más noticias de Estados Unidos