14 de noviembre de 2025 5:00 hs

El termo que usás para tomar mate tiene una capacidad limitada. No importa si lo llenás de agua o si dejás espacio vacío: de pique ya sabés todo lo que entra.

Tus conversaciones en ChatGPT, Gemini o la que sea, funcionan igual. No podés subir un archivo de 1000 páginas y hacer decenas de interacciones, porque seguro vas a tener problemas.

En la jerga de la inteligencia artificial ese límite es conocido como “ventana de contexto”: es la cantidad total de tokens (palabras) que un modelo puede procesar entre entrada y salida.

Más noticias

Y el límite de la ventana de contexto depende de la herramienta, el modelo y, por ahora, de lo que pagás por usarlas.

Qué pasa con ChatGPT

ChatGPT, como herramienta, ofrece distintas ventanas de contexto según el plan y la versión que se utilice. En el caso de GPT-5.1 Instant, el modelo más rápido, las capacidades cambian según el nivel de acceso.

La versión Free posee un límite de 16 mil tokens, equivalentes a unas 12 mil palabras, es decir, alrededor de 24 páginas de Word en Arial 11. La opción Plus y Business eleva ese límite a 32 mil tokens, cerca de 24 mil palabras, unas 48 páginas de Word. Y en Pro y Enterprise, la ventana asciende a 128 mil tokens, que equivalen a 96 mil palabras, aproximadamente 192 páginas de Word, es decir, casi un tercio del libro más extenso de Harry Potter, “La Orden del Fénix”, que tiene 257 mil palabras.

Por otro lado, el modelo GPT-5.1 Thinking, disponible en todos los planes pagos, ofrece una ventana mayor: 196 mil tokens. Eso equivale a unas 147 mil palabras, alrededor de 294 páginas de Word. En volumen, representa más de la mitad de “La Orden del Fénix”.

Cómo es con Gemini

Gemini funciona de manera distinta. Si sos usuario gratuito tenés acceso a 32 mil tokens, sin importar el modelo que uses (ni el básico 2.5 Flash o el razonador 2.5 Pro). Una ventana de 32.000 tokens equivale aproximadamente a 24.000 palabras, lo que llenaría unas 48 páginas de Word (formato Arial 11, doble espacio), constituyendo cerca de una décima parte de la extensión total del libro Harry Potter y la Orden del Fénix.

Pero si pagás al menos US$ 20 por mes, accedés a 1 millón de tokens, algo así como 700.000 palabras. Si uno la compara con formato Arial 11 de Word, serían más de 1.500 páginas de Word. Esta ventana de contexto equivale a casi tres libros de La Orden del Fénix.

Así lo podés ver de manera resumida:

  • GPT-5.1 Instant – Free → 12.000 palabras
  • GPT-5.1 Instant – Plus/Business → 24.000 palabras
  • Gemini – Free → 24.000 palabras
  • GPT-5.1 Instant – Pro/Enterprise → 96.000 palabras
  • GPT-5.1 Thinking – todos los pagos → 147.000 palabras
  • Gemini – Pago (US$ 20+) → 700.000 palabras

Cómo se llena la ventana y qué pasa cuando se excede

Emiliano Chinelli, experto en inteligencia artificial y dueño de una empresa llamada Promtior, remarca que la ventana "cuenta todo, la entrada y la salida". Esto obliga a equilibrar el tamaño del prompt y la respuesta esperada dentro del máximo disponible.

Es decir, si sos un usuario gratuito y le subís un archivo adjunto que tiene 10 mil palabras, tu prompt tiene que contemplar que te queda muy poca ventana de contexto la respuesta que vas a dar. Y tenés que recordar que lo que va generando va llenando poco a poco esa ventana de contexto, como si fuera agua que le estés poniendo a tu termo.

Uno de los riesgos que suceden cuando se excede la ventana de contexto es que la herramienta empieza a olvidar las partes más antiguas de la conversación para hacer espacio a las nuevas. Y si olvida partes relevantes puede llegar a inventar información o dar datos imprecisos.

Lo que sucede a nivel práctico

Un estudio liderado por el investigador Norman Paulsen de la Universidad de Colorado advierte contra el uso excesivo de los modelos de lenguaje: la capacidad anunciada de soporte (por ejemplo, 1 millón de tokens) no debe interpretarse como una invitación a sobrecargar la herramienta.

En cambio, es crucial tener en cuenta que el rendimiento del modelo puede degradarse al aumentar el contexto. Paulsen subraya que las impresionantes cifras de tokens informadas por las grandes tecnológicas reflejan a menudo "límites arquitectónicos o de implementación, no necesariamente la capacidad práctica real del modelo".

De hecho, este estudio, divulgado este año, evaluó que algunos de los modelos de inteligencia artificial más avanzados comenzaron a cometer errores con un contexto de apenas 100 tokens, lo que equivale aproximadamente a unas 75 palabras. Además, la gran mayoría de estos modelos experimentó una caída drástica en su rendimiento y precisión cuando el contexto que debían manejar alcanzó los 1000 tokens, lo que se traduce en alrededor de 750 palabras (una cantidad de texto similar a una página y media).

Este investigador aseguró que conviene limitar agresivamente el contexto por tarea. Esto ayuda a evitar alucinaciones. Elegir modelo no es solo “el mejor de la tabla”, sino el mejor para tu tarea específica y para el rango de tokens con el que vas a trabajar, dice este investigador.

EO Clips

Te Puede Interesar

Más noticias de Argentina

Más noticias de España

Más noticias de Estados Unidos