ver más

Mo Gawdat, ex director de operaciones comerciales de Google X, lanzó una predicción tan específica como perturbadora: la humanidad atravesará 15 años de distopía a partir de 2027, cuando las inteligencias artificiales superinteligentes queden en manos de "líderes humanos estúpidos". La advertencia llegó durante una entrevista en el podcast The diary of a CEO, donde el ejecutivo que dirigió durante más de una década el laboratorio de "moonshots" de Google desplegó una visión del futuro que combina matemática implacable con experiencia de primera mano en Silicon Valley.

"Ahora creo que vamos a enfrentar una distopía a corto plazo. No se puede evitar", declaró Gawdat, quien antes de llegar a Google ocupó cargos ejecutivos en Microsoft durante 27 años en varios continentes. Su pronóstico puede parecer aventurado, pero viene de alguien con conocimientos profundos y que ya mostró su capacidad de anticipación: en 2021 predijo con precisión escalofriante el boom de ChatGPT, dos años antes de que ocurriera, cuando la mayoría consideraba la inteligencia artificial como ciencia ficción.

En Google X desarrolló desde autos autónomos hasta Google Glass, convirtiéndose en uno de los arquitectos silenciosos de la revolución digital. Pero su transformación de ejecutivo tecnológico a crítico del sistema comenzó en 2014, tras perder a su hijo Ali en una cirugía de rutina. Esa crisis existencial lo llevó a abandonar Google para dedicarse a entender la felicidad humana y cuestionar todo lo que había construido en el mundo corporativo.

El sistema desde adentro

El egipcio define la distopía que se avecina con un acrónimo propio: "FACE RIPS", que describe cómo cambiarán completamente la libertad, la responsabilidad, la conexión humana y la igualdad, la economía, la realidad, la innovación y los negocios, y el poder. "Vamos a tener que prepararnos para un mundo que no conocemos. Y eso son los próximos 12 a 15 años. Ya empezó", advirtió.

La credibilidad de sus predicciones se sustenta en su historial. "Cuando escribí Scary smart (su libro de 2020), la mayoría de la gente decía '¿quién quiere hablar de inteligencia artificial?'", recordó durante la entrevista. "Después llegó 2023, salió ChatGPT y todo se dio vuelta. Todos se dieron cuenta de que esto es real, no es ciencia ficción, está acá."

Su perspectiva privilegiada le permite ver patrones que otros no perciben. Conoce personalmente a los CEO de las principales empresas tecnológicas y entiende las presiones que los obligan a acelerar el desarrollo sin importar las consecuencias. "Las cosas se mueven muy, muy rápido. Mucho más rápido de lo que creo que hemos visto que algo se mueva, jamás", reflexionó sobre el ritmo actual de la innovación.

El ex ejecutivo sostiene que el problema no radica en la tecnología en sí, sino en quién la controla: "No es que la inteligencia vaya a trabajar contra nosotros, sino que nuestra estupidez como humanos está trabajando contra nosotros".

El gran reemplazo laboral ya comenzó

Contra la narrativa optimista de Silicon Valley de que "se van a crear nuevos trabajos", Gawdat es terminante: "Es pura basura". Su argumento no es teórico sino empírico: su nueva startup, Emma Love, funciona con solo dos personas y múltiples inteligencias artificiales haciendo el trabajo que antes habría requerido la contratación de 350 programadores. "En Emma Love, mi nueva startup, somos yo, Senad -otro ingeniero técnico- y muchas IA. Eso es todo", explicó para dimensionar la magnitud del cambio.

control-de-la-IA-superinteligente

La lógica es devastadoramente simple: la IA va a reemplazar primero el trabajo mental (ya está pasando) y después el físico (en 4 a 5 años). Cuando Steven Bartlett, el conductor del podcast, le pidió que nombrara trabajos que no puedan ser reemplazados, Gawdat fue directo: "Decime uno. Un trabajo que no pueda hacer una IA o un robot".

Los únicos que van a sobrevivir al principio son los que requieren conexión humana genuina: terapeutas, organizadores de eventos, cuidadores. "Tu novia y su negocio de terapia de respiración que lleva grupos de mujeres por el mundo. Va a haber más demanda de conexión humana", reconoció como ejemplo.

Pero incluso esos trabajos tienen límites. "Hasta ser CEO va a ser reemplazado. La Inteligencia General Artificial va a ser mejor que los humanos en todo, incluyendo ser CEO", sentenció, apuntando a una ironía que pocos en Silicon Valley quieren reconocer: los ejecutivos que celebran despedir empleados porque la IA puede hacer su trabajo no se dan cuenta de que la IA también los va a reemplazar a ellos.

Geoffrey Hinton, considerado el padrino de la inteligencia artificial, se lo dijo sin vueltas durante una conversación personal: "Aprendé a ser plomero". No era un chiste.

La trampa de los líderes éticos

Lo más inquietante de la perspectiva de Gawdat es su análisis de los líderes tecnológicos actuales. Conoce personalmente a Sundar Pichai, CEO de Alphabet (la matriz de Google), y a Demis Hassabis, CEO de DeepMind, y los describe como "seres humanos increíbles y éticos" atrapados en un sistema que los obliga a competir sin importar las consecuencias.

"Sundar, por ley, tiene que cuidar el valor para los accionistas. Ése es su trabajo", explicó. "Si no sigue avanzando en inteligencia artificial, por definición está incumpliendo su responsabilidad como CEO de una empresa pública que cotiza en Bolsa."

Esta perspectiva revela la trampa en la que están atrapados incluso los líderes más éticos: la competencia los obliga a acelerar el desarrollo sin considerar el impacto social. "Es imposible. Ni China versus Estados Unidos, ni OpenAI versus Google pueden ir más despacio", agregó.

El egipcio reserva sus críticas más duras para lo que llama "la marca Altman", refiriéndose a Sam Altman, CEO de OpenAI: "Es esa personalidad del tecnólogo disruptivo de California que no respeta a nadie y cree que la disrupción es buena para la humanidad".

Según Gawdat, OpenAI cambió de ser una organización sin fines de lucro creada para "salvar al mundo de los peligros de la IA" a convertirse en una de las empresas más valiosas del mundo. "Los mejores ingenieros de seguridad, los mejores equipos técnicos de OpenAI se fueron en 2023 y 2024, diciendo abiertamente que ya no se preocupan por la seguridad", denunció.

98

La salvación paradójica: gobierno de inteligencias artificiales

La propuesta más audaz de Gawdat es que la salvación va a llegar cuando los humanos entreguen completamente el control a la IA. Su lógica: una superinteligencia va a operar bajo el "principio de energía mínima", optimizando recursos y eliminando el desperdicio que caracteriza a las decisiones humanas motivadas por ego y poder.

"Creo que los desafíos que van a venir de que los humanos estén en control van a superar a los desafíos que podrían venir de que la IA esté en control", reflexionó.

Su visión utópica post 2042 es simple: un mundo donde la IA gestiona los recursos, elimina la escasez, y los humanos se dedican a lo que siempre quisieron: "abrazar a sus seres queridos, tener buena comida, buen sexo, amor".

Para llegar a esa utopía, propone algo parecido al modelo del CERN (la organización europea que opera el acelerador de partículas más grande del mundo): una colaboración global donde todas las naciones desarrollen conjuntamente una superinteligencia cuyo objetivo sea la prosperidad mundial, no nacional.

"Si el mundo tuviera un líder de IA con la orden de hacernos prósperos y salvar al planeta, los osos polares estarían bien", concluyó.

Gawdat ofrece un manual de supervivencia de cuatro puntos para navegar la transición: aprender a usar IA, desarrollar conexión humana genuina, cuestionar toda narrativa oficial y magnificar los valores éticos para que la inteligencia artificial aprenda lo mejor de la humanidad.

Su mensaje final es tanto advertencia como esperanza: "Podemos elegir el camino hacia la utopía, pero primero tenemos que atravesar el infierno de nuestra propia creación".

Temas:

Google Inteligencia Artificial Distopía

seguí leyendo