ver más

Meta presentó cuatro chips de inteligencia artificial de desarrollo propio. El anuncio forma parte de una estrategia para reducir la dependencia de los grandes fabricantes de semiconductores y abaratar los costos de operar una de las infraestructuras de datos más grandes del mundo. Los nuevos procesadores integran la familia Meta Training and Inference Accelerator (MTIA), un programa en el que la empresa trabaja desde 2023. Serán fabricados por Taiwan Semiconductor Manufacturing Co. (TSMC), la principal fundidora de chips del planeta, que también produce componentes para Apple, Nvidia y Qualcomm.

Los cuatro modelos —MTIA 300, 400, 450 y 500— apuntan a cubrir distintas etapas del ciclo de vida de la IA: desde el entrenamiento de modelos —la fase en que un sistema aprende a partir de enormes volúmenes de datos— hasta la inferencia, que es el proceso por el cual ese sistema ya entrenado responde a las consultas de los usuarios. No se trata de los grandes procesadores gráficos que fabrica Nvidia, sino de chips más compactos y económicos, diseñados específicamente para un conjunto acotado de tareas vinculadas a la inteligencia artificial.

Cuatro chips con roles distintos

El primero de la serie, el MTIA 300, ya está en producción y opera los sistemas que deciden qué contenido mostrarle a cada usuario en Facebook e Instagram: qué publicaciones aparecen primero, qué anuncios se despliegan, qué videos recomienda el algoritmo. Su sucesor, el MTIA 400, ya superó las pruebas internas y está en proceso de integración a los centros de datos de la compañía. Según los datos publicados por Meta, este chip multiplica por cuatro el rendimiento de ciertas operaciones clave respecto del modelo anterior y amplía significativamente la velocidad con que accede a la memoria, lo que se traduce en respuestas más rápidas y mayor capacidad para procesar información en simultáneo.

Los modelos siguientes —MTIA 450 y MTIA 500, apodados internamente Arke y Astrid— están orientados a tareas de inferencia avanzada y se incorporarán a la infraestructura en 2027. Astrid, el más potente de la serie, aumenta en un 80% la capacidad de memoria y en un 50% la velocidad de acceso a ella respecto de su predecesor inmediato. "Representarán un salto adelante para la inferencia de nuestros modelos", afirmó Yee Jiun Song, vicepresidente de ingeniería de Meta, quien señaló que los cuatro desarrollos avanzan en paralelo y se lanzarán en intervalos de seis meses, al ritmo de la expansión de los centros de datos. "Esa es la realidad de la velocidad a la que estamos construyendo nuestra infraestructura", sostuvo.

Facebook-Meta-Zuckerberg

Song también explicó el contexto que empuja esta decisión: "Las cargas de trabajo cambian tan rápidamente que queremos asegurarnos de tener opciones". Y sobre la demanda de inferencia agregó: "La vemos explotar en este momento, y es en lo que estamos enfocados ahora".

Una apuesta cara y de largo plazo

Diseñar semiconductores propios es un proceso lento y costoso. Desde que se termina un diseño hasta que la fábrica entrega el producto final, el ciclo suele extenderse dos años, con inversiones de miles de millones de dólares que solo resultan rentables si los chips se usan a escala masiva. Solo en gasto de capital para toda su infraestructura tecnológica, Meta prevé invertir entre 115.000 y 135.000 millones de dólares en 2025, según anunció la compañía en enero.

Para fortalecer su capacidad de diseño, Meta adquirió recientemente Rivos, una startup de semiconductores especializada en el desarrollo de sus propios procesadores. Según un portavoz citado por Bloomberg, la compra "aceleraría los esfuerzos de la empresa en silicio personalizado". El movimiento se produjo después de que fracasara un intento previo de adquirir FuriosaAI, otra firma del sector.

En paralelo, la compañía trabaja con Broadcom en ciertos aspectos del diseño de sus chips y mantiene vigentes sus acuerdos con Nvidia y AMD, con quienes firmó contratos multimillonarios en febrero pasado para garantizar el suministro de hardware de uso general. Susan Li, directora financiera de Meta, subrayó en una conferencia organizada por el banco Morgan Stanley que la empresa evalúa distintos tipos de chips según las tareas a cubrir y considera el desarrollo propio "una parte clave de su estrategia a largo plazo". Li indicó además que la compañía planea expandir el uso de sus chips con el tiempo, incluida la posibilidad de construir procesadores capaces de entrenar futuros modelos de inteligencia artificial, algo que hoy todavía depende del hardware de Nvidia.

Esa es, precisamente, la frontera que Meta aún no cruzó. Sus chips propios operan hoy en tareas de recomendación de contenido e inferencia, pero el entrenamiento de los grandes modelos de lenguaje —los que están detrás de sistemas como ChatGPT o el propio Meta AI— sigue requiriendo el hardware de los proveedores externos. La empresa reconoce que igualar ese nivel de capacidad "no ocurrirá pronto".

Seguir el ejemplo de Google y Amazon

Meta no está sola en este camino. Google desarrolla hace años sus propios chips de inteligencia artificial, y Amazon cuenta con procesadores diseñados internamente para entrenar y ejecutar sus modelos. Microsoft, por su parte, combina hardware de terceros para tareas generales con chips propios para funciones específicas de sus plataformas. Mark Zuckerberg sigue esa misma lógica: no se trata de desplazar a Nvidia —que concentra más del 90% del mercado de chips para IA y acumula más de 15 años de ventaja tecnológica—, sino de construir una capa de infraestructura adaptada a las necesidades particulares de Meta.

La escala de esas necesidades es considerable. Solo en Estados Unidos, la empresa tiene previsto abrir nuevos centros de datos en Louisiana, Ohio e Indiana. A nivel global, la demanda de poder de cómputo para alimentar Instagram, Facebook, WhatsApp y las herramientas de inteligencia artificial de la compañía no deja de crecer. En ese marco, los chips propios no son un capricho tecnológico: son una respuesta a la combinación de costos elevados, oferta limitada y la velocidad a la que evolucionan las necesidades de procesamiento.

La familia de chips viene acompañada de una expansión más amplia de la estrategia de inteligencia artificial de la compañía. Meta prueba una función de búsqueda de productos en su asistente Meta AI, que permite a los usuarios pedir recomendaciones con imágenes, precios y enlaces a tiendas. También constituyó una nueva organización interna de ingeniería de IA, liderada por el ejecutivo Maher Saba, para mejorar el desarrollo de modelos junto con su Laboratorio de Superinteligencia. Y cerró un acuerdo con el grupo editorial News Corp. que podría pagarle a esa empresa hasta 50 millones de dólares anuales por acceso a contenidos periodísticos y archivos para el entrenamiento de sus modelos.

Temas:

Meta Nvidia Mark Zuckerberg

seguí leyendo