ver más

El pasado jueves 14 de mayo, la empresa de semiconductores Cerebras Systems salió a cotizar en el Nasdaq y protagonizó el debut bursátil más importante de 2026 en Wall Street: recaudó 5.550 millones de dólares, fijó el precio inicial de sus acciones a 185 dólares —muy por encima del rango previsto de entre 115 y 125 dólares— y cerró a 311 dólares, un salto del 68%. La capitalización de mercado rozó los 67.000 millones de dólares. Al día siguiente, el papel retrocedió cerca de un 10%, una corrección esperable tras la euforia inicial.

Detrás de esos números hay una apuesta tecnológica poco convencional, una historia de tropiezos y una pregunta que recorre la industria tecnológica global: ¿puede alguien disputarle el dominio del hardware de inteligencia artificial a Nvidia?

17787941156a063e8347ee0_1778794115_3x2_md

La tecnología: un chip enorme para un problema enorme

La propuesta de Cerebras parte de una lógica que va a contramano de décadas de fabricación de semiconductores. Mientras la industria perfeccionó durante años la miniaturización (chips cada vez más pequeños, más eficientes y más baratos), Cerebras apostó por el camino inverso.

Su producto principal es el Wafer Scale Engine (WSE), el chip de mayor tamaño fabricado en serie en el mundo: ocupa casi la totalidad de una oblea de silicio —la misma que normalmente se corta en decenas de chips convencionales— y concentra más de 4 billones de transistores en una única pieza del tamaño de un plato de comida.

Los sistemas de inteligencia artificial necesitan mover cantidades enormes de datos entre unidades de procesamiento, y cada vez que esos datos cruzan de un chip a otro se pierde tiempo y energía. Al integrar todo en una sola pieza, Cerebras elimina gran parte de esa fricción. El resultado es que su hardware puede procesar más de 2.200 tokens por segundo en determinados modelos de lenguaje, casi tres veces más rápido que los sistemas basados en GPU de sus competidores. La empresa se especializa en inferencia: el proceso por el cual un modelo ya entrenado responde preguntas o genera texto, la parte del negocio que más crece a medida que la IA se instala en productos de uso masivo.

Una década de trabajo y un primer intento frustrado

Cerebras fue fundada en 2016 por Andrew Feldman, ejecutivo que anteriormente dirigió SeaMicro, una empresa de servidores adquirida por AMD en 2012. La compañía tiene sede en Sunnyvale, California, y durante años funcionó con financiamiento privado mientras desarrollaba su tecnología.

El gran impulso comercial llegó a través de G42, un fondo de inversión de Abu Dabi que se convirtió en su cliente principal. Para 2024, G42 representaba el 87% de los ingresos de Cerebras, lo que en términos comerciales implicaba un logro notable y a la vez una vulnerabilidad difícil de pasar por alto.

NKNMTAF3EJCPXM4PHMD7LIOXUE

En septiembre de 2024, Cerebras presentó ante la Comisión de Valores de Estados Unidos (SEC) su solicitud para salir a bolsa. Semanas después, la retiró: el Comité de Inversiones Extranjeras de Estados Unidos (CFIUS) abrió una revisión sobre la vinculación de G42 con Emiratos Árabes Unidos en un contexto geopolítico delicado, y los inversores mostraron reticencia ante la dependencia de un solo cliente.

Lo que siguió fue un año de reordenamiento. Cerebras diversificó su cartera de clientes con dos acuerdos de peso: uno con OpenAI, la empresa creadora de ChatGPT, por más de 20.000 millones de dólares en capacidad de cómputo hasta 2028, y otro con Amazon Web Services (AWS), que anunció el despliegue de chips de Cerebras en sus centros de datos. Cuando la empresa volvió a presentar su solicitud de cotización en abril de 2026, G42 representaba el 24% de sus ingresos. Los resultados financieros también mostraban otra cara: 510 millones de dólares en ventas durante 2025, un crecimiento del 76% respecto al año anterior, y una ganancia neta de 237,8 millones de dólares, en contraste con una pérdida de casi 500 millones registrada en 2024.

El libro de órdenes del IPO cerró con una demanda veinte veces superior a la oferta disponible.

La sombra de Nvidia y el mapa de la industria

Hablar de chips para inteligencia artificial es, inevitablemente, hablar de Nvidia. La empresa dirigida por Jensen Huang facturó 215.900 millones de dólares en su último ejercicio fiscal —423 veces los ingresos de Cerebras— y sus unidades de procesamiento gráfico (GPU) dominan tanto el entrenamiento de modelos como la inferencia, respaldadas por quince años de adopción de su plataforma de software CUDA.

Pero Nvidia enfrenta un problema estructural que el dinero no resuelve de manera inmediata: durante años, la demanda de sus chips superó con creces su capacidad de producción, los precios se dispararon y sus clientes más grandes —OpenAI, Amazon, Google, Meta— tienen razones concretas para buscar alternativas. En ese espacio se mueven AMD, Intel y una serie de startups de semiconductores que buscan capturar una porción de un mercado en expansión.

La estrategia de Cerebras no es desplazar a Nvidia, sino ofrecer una opción más eficiente para casos de uso específicos, en particular la inferencia a gran escala. "Hay algunas ballenas por ahí, algunos clientes muy grandes", dijo Feldman en una entrevista el día del debut en el Nasdaq. "Eso es una característica de este mercado".

Por qué los semiconductores se volvieron estratégicos

El auge de la inteligencia artificial generativa transformó los chips especializados en un recurso escaso y disputado. Cada respuesta de un asistente de IA, cada imagen generada, cada búsqueda procesada con modelos de lenguaje requiere miles de operaciones matemáticas ejecutadas en hardware de alto rendimiento. A medida que esos modelos se masifican, la infraestructura de chips se convierte en un factor determinante, tanto para las empresas como para los Estados.

Estados Unidos restringió las exportaciones de semiconductores avanzados a China, la Unión Europea lanzó su propia política industrial en el sector y países de Medio Oriente destinan miles de millones de dólares a construir capacidad de cómputo propia. El control sobre quién fabrica los chips y para quién se convirtió en una variable de poder que excede el mercado tecnológico.

En ese contexto, la IPO de Cerebras refleja algo más que el entusiasmo de los inversores por la inteligencia artificial. Entre los accionistas de la empresa figuran Fidelity, con una participación valuada en unos 3.800 millones de dólares, y la firma de capital de riesgo Benchmark, con cerca de 3.300 millones. Feldman controla alrededor del 5% del poder de voto y una participación valuada en casi 2.000 millones de dólares al precio del IPO.

Los analistas advierten que casi el 90% de los ingresos de Cerebras depende de dos clientes, y que la ventaja en inferencia puede reducirse si Nvidia acelera su desarrollo en esa dirección. En cuanto al título de mayor debut del año, podría ser efímero: SpaceX —que en febrero fusionó operaciones con xAI, la empresa de inteligencia artificial de Elon Musk— estaría evaluando su propia salida a bolsa, al igual que OpenAI y Anthropic.

Temas:

chip inteligencia artificial Nvidia

seguí leyendo