3 de marzo 2026 - 18:54hs

En junio de 2024, Ilya Sutskever, uno de los científicos de inteligencia artificial más influyentes del mundo, publicó un mensaje en X —la red social antes conocida como Twitter— que sorprendió a la industria tecnológica: anunciaba que dejaba OpenAI, la empresa que había cofundado una década antes. No daba demasiados detalles. Decía que tenía por delante "un proyecto que es muy personalmente significativo" para él, y que compartiría detalles en su momento. Eso fue todo. Para alguien que acababa de protagonizar uno de los episodios corporativos más turbulentos de los últimos años, el mensaje era llamativamente sobrio.

Lo que vino después fue todavía más llamativo. Sutskever fundó Safe Superintelligence Inc. (SSI), una empresa cuya misión declarada es construir una inteligencia artificial capaz de superar la inteligencia humana, pero hacerlo de manera segura. Sin productos intermedios. Sin presiones comerciales de corto plazo. En septiembre de 2024, SSI recaudó 1.000 millones de dólares a una valuación de 5.000 millones. Apenas unos meses después, en abril de 2025, cerró una nueva ronda de 2.000 millones de dólares que llevó su valuación a 32.000 millones de dólares. Todo eso sin haber lanzado un solo producto al mercado. Su sitio web es, todavía hoy, una sola página con un párrafo de texto.

Del dormitorio de Toronto a OpenAI

Para entender por qué Sutskever importa tanto, hay que volver a octubre de 2012. En una conferencia de inteligencia artificial en Florencia, Italia, un equipo de investigadores de la Universidad de Toronto presentó un sistema capaz de reconocer imágenes con una precisión que dejó atónitos a sus colegas. El sistema usaba redes neuronales, una técnica que los expertos habían descartado durante décadas por considerarla computacionalmente inviable, y se ejecutaba en chips gráficos diseñados originalmente para videojuegos. Sutskever era coautor de ese trabajo, junto con Alex Krizhevsky y su mentor, Geoffrey Hinton, quien en 2024 recibiría el Premio Nobel de Física precisamente por ese tipo de investigaciones.

Más noticias

Ese momento marcó un antes y un después en la historia de la inteligencia artificial. Hasta entonces, los científicos intentaban enseñarle a las máquinas a razonar como adultos: les daban reglas, modelos matemáticos, bases de datos de ejemplos clasificados. Lo que propuso el equipo de Toronto fue lo opuesto: darle a la máquina millones de ejemplos y dejarla aprender patrones por sí sola, como aprenden los niños. Ese enfoque, conocido como aprendizaje profundo (deep learning), es la base de todo lo que vino después: los ChatGPT, los Claude, los Gemini y el resto de los grandes modelos de lenguaje que hoy se usan en todo el mundo.

En 2015, Sutskever se convirtió en uno de los seis cofundadores de OpenAI, junto a Sam Altman, Elon Musk y otros. Durante casi una década fue su científico jefe: la cabeza técnica detrás de los modelos que convirtieron a OpenAI en la empresa más influyente del sector. GPT-3, GPT-4, el ChatGPT que en noviembre de 2022 se volvió un fenómeno cultural global con 100 millones de usuarios en dos meses: todo eso pasó por sus manos.

El golpe fallido y la salida

En noviembre de 2023, Sutskever protagonizó uno de los episodios más extraños del mundo corporativo reciente. Junto con otros miembros del directorio de OpenAI, intentó destituir a Sam Altman como CEO de la compañía. La razón alegada, según distintas fuentes, era que Altman no era suficientemente transparente con el directorio y que la empresa estaba priorizando la comercialización de sus productos por encima de la seguridad. El intento fracasó: cinco días después, Altman fue reinstalado como CEO tras una rebelión de empleados que amenazaron con renunciar en masa. Más de 500 de los 700 trabajadores de OpenAI firmaron una carta exigiendo su regreso.

historia-OpenAI

Sutskever se desdijo públicamente y con rapidez. "Lamento profundamente mi participación en las acciones del directorio", escribió en X. "Nunca tuve la intención de dañar a OpenAI. Amo todo lo que construimos juntos.". Incluso firmó la carta de los empleados que pedía el retorno de Altman. El episodio lo dejó en una posición incómoda dentro de la empresa que había contribuido a construir. Seis meses después, en mayo de 2024, anunció su salida.

Altman reaccionó con una mezcla de elegancia y distancia. "Es una noticia muy triste", dijo en un comunicado. "Siempre estaré agradecido por lo que hizo acá y comprometido a terminar la misión que empezamos juntos". La reconciliación, en todo caso, nunca llegó a concretarse.

Una apuesta sin precedentes

SSI fue fundada en junio de 2024 junto a Daniel Gross, ex responsable de inteligencia artificial en Apple, y Daniel Levy, ex investigador de OpenAI. La empresa opera entre Palo Alto, California, y Tel Aviv, Israel, y tiene alrededor de 20 empleados en total, lo que la convierte en una de las compañías con mejor valuación por empleado en la historia de la industria tecnológica. Sutskever rechazó una oferta de adquisición de Meta —la empresa de Mark Zuckerberg— y en julio de 2025 asumió formalmente el cargo de CEO de SSI, luego de que Gross se fuera a trabajar justamente para esa compañía.

Los inversores que respaldaron a SSI incluyen fondos de primer nivel como Sequoia Capital, Andreessen Horowitz, Greenoaks Capital —que lideró la última ronda con 500 millones de dólares— y DST Global. Además, tanto Alphabet (la empresa matriz de Google) como Nvidia participaron como inversores, lo que convierte a SSI en una de las pocas compañías del mundo con respaldo simultáneo de los dos gigantes de la infraestructura de IA. Google Cloud también se convirtió en su principal proveedor de procesadores de tipo TPU (tensor processing units), los chips que SSI utiliza en lugar de las GPU de Nvidia que dominan el resto de la industria. La valuación de la empresa saltó seis veces en menos de un año: de 5.000 millones de dólares en septiembre de 2024 a 32.000 millones en abril de 2025.

Más allá de ChatGPT

¿Qué es exactamente lo que Sutskever quiere construir? En una presentación en diciembre de 2024 ante la conferencia NeurIPS —el encuentro más importante del mundo académico de inteligencia artificial, celebrado en Vancouver—, dio algunas pistas sobre su diagnóstico del momento. La era del "escalado", dijo, está llegando a su límite. Esa era se basa en la idea de que mejores modelos se obtienen simplemente entrenándolos con más datos y mayor poder computacional. "El preentrenamiento tal como lo conocemos va a terminar, sin dudas", afirmó ante el auditorio. "Los datos son el combustible fósil de la IA: fueron creados, ahora los usamos, y ya se acabaron.". El problema es concreto: existe una sola internet, y los modelos ya consumieron prácticamente toda la información disponible en él.

Lo que viene, en la visión de Sutskever, no es más de lo mismo sino un salto cualitativo. Los modelos actuales son, según sus palabras, "extrañamente poco confiables": se confunden, hallucinan, cometen errores que cualquier humano evitaría. Los sistemas del futuro, en cambio, tendrán capacidad de razonamiento genuina, aprenderán de cantidades mucho menores de datos y, eventualmente, desarrollarán alguna forma de autoconciencia. "Cuando todo esto se combine, tendremos sistemas de propiedades y cualidades radicalmente distintas a los que existen hoy", dijo. Pero también advirtió sobre un riesgo inherente a ese progreso: "Con un sistema que razona, cuanto más razona, más impredecible se vuelve". Como los ajedrecistas de IA más avanzados, cuyos movimientos ya no pueden anticipar ni los mejores jugadores humanos del mundo.

La paradoja de Sutskever es que es simultáneamente uno de los arquitectos del mundo que critica y uno de los pocos con credenciales para intentar cambiarlo. Ayudó a construir la IA que hoy preocupa a reguladores, filósofos y ciudadanos en todo el mundo. Y ahora sostiene que esa IA, tal como existe, no es suficientemente buena ni suficientemente segura. Su empresa, la única en la industria que no tiene productos ni ingresos y que declara abiertamente que no los tendrá hasta alcanzar la superinteligencia, vale en el mercado más que muchas empresas consolidadas con décadas de historia. Si Sutskever tiene razón, la próxima gran disrupción de la inteligencia artificial no vendrá de OpenAI, ni de Google, ni de Meta. Vendrá de una oficina pequeña, con veinte personas, en algún lugar entre California e Israel.

Temas:

Inteligencia Artificial

Seguí leyendo

Más noticias

Te puede interesar

Más noticias de Uruguay

Más noticias de España

Más noticias de Estados Unidos