Tokens

Intermedio
OpenAI
OpenAI
Actualizado: 03/07/2025

¡Desbloquea el curso completo!

IA
Ejercicios
Certificado
Entrar

Qué son los tokens

Los tokens representan la unidad básica de procesamiento que utilizan los modelos de lenguaje para entender y generar texto. A diferencia de lo que podríamos pensar intuitivamente, estos modelos no procesan el texto palabra por palabra, sino que lo dividen en fragmentos más pequeños llamados tokens.

Un token puede ser una palabra completa, parte de una palabra, un carácter individual, o incluso espacios y signos de puntuación. Por ejemplo, la palabra "programación" podría dividirse en varios tokens como "program", "ación", mientras que palabras comunes como "el" o "de" suelen ser tokens únicos. Esta división no es arbitraria, sino que se basa en algoritmos de tokenización que optimizan la representación del lenguaje.

Implicaciones de los tokens en el procesamiento

La tokenización tiene implicaciones directas en cómo los modelos procesan la información y en los costes asociados. Cada modelo tiene un límite máximo de tokens que puede procesar en una sola petición, conocido como ventana de contexto. Por ejemplo, si un modelo tiene una ventana de 4,096 tokens, esto incluye tanto el texto de entrada como la respuesta generada.

Los tokens también determinan el coste económico de usar la API de OpenAI. Los precios se calculan por cada 1,000 tokens procesados, y es importante distinguir entre:

  • Tokens de entrada (input tokens): El texto que enviamos al modelo
  • Tokens de salida (output tokens): El texto que el modelo genera como respuesta

Los tokens de salida suelen tener un coste superior a los de entrada, ya que requieren más procesamiento computacional para ser generados.

Conteo de tokens con tiktoken

Para calcular el número de tokens antes de realizar una petición, podemos usar la biblioteca tiktoken, que replica el proceso de tokenización de OpenAI:

import tiktoken

# Obtener el codificador para el modelo específico
encoding = tiktoken.encoding_for_model("gpt-4.1")

# Contar tokens en un texto
texto = "Hola, ¿cómo estás programando hoy?"
num_tokens = len(encoding.encode(texto))

print(f"El texto contiene {num_tokens} tokens")

Esta herramienta es especialmente útil para estimar costes antes de realizar peticiones costosas o para asegurarnos de que no excedemos los límites del modelo.

Guarda tu progreso

Inicia sesión para no perder tu progreso y accede a miles de tutoriales, ejercicios prácticos y nuestro asistente de IA.

Progreso guardado
Asistente IA
Ejercicios
Iniciar sesión gratis

Más de 25.000 desarrolladores ya confían en CertiDevs

Para poder usarla es necesario instalarla:

pip install tiktoken

Información de tokens en las respuestas

Cuando utilizamos la API Responses de OpenAI, cada respuesta incluye metadatos detallados sobre el uso de tokens. Esta información aparece en el campo usage de la respuesta:

from openai import OpenAI

client = OpenAI()

response = client.responses.create(
    model="gpt-4.1",
    input="Explica qué es la programación orientada a objetos en una frase."
)

# Acceder a la información de tokens
usage = response.usage
print(f"Tokens de entrada: {usage.input_tokens}")
print(f"Tokens de salida: {usage.output_tokens}")
print(f"Total de tokens: {usage.total_tokens}")

# Mostrar el texto generado
print(f"Respuesta: {response.output_text}")

La estructura usage proporciona información granular que incluye:

  • input_tokens: Número de tokens en nuestra petición
  • output_tokens: Número de tokens en la respuesta generada
  • total_tokens: Suma total de tokens procesados
  • input_tokens_details: Información adicional como tokens en caché
  • output_tokens_details: Detalles sobre tokens de razonamiento si aplica

Esta información es fundamental para monitorizar el consumo y optimizar el uso de la API, especialmente en aplicaciones que realizan múltiples peticiones o procesan grandes volúmenes de texto.

Aprendizajes de esta lección

  • Comprender qué son los tokens y cómo se dividen los textos en fragmentos para su procesamiento.
  • Conocer la importancia de la tokenización en el funcionamiento y coste de los modelos de lenguaje.
  • Aprender a utilizar la biblioteca tiktoken para contar tokens en un texto.
  • Entender cómo interpretar la información de tokens en las respuestas de la API de OpenAI.
  • Saber cómo monitorizar y optimizar el uso de tokens para gestionar costes y límites de los modelos.

Completa OpenAI y certifícate

Únete a nuestra plataforma y accede a miles de tutoriales, ejercicios prácticos, proyectos reales y nuestro asistente de IA personalizado para acelerar tu aprendizaje.

Asistente IA

Resuelve dudas al instante

Ejercicios

Practica con proyectos reales

Certificados

Valida tus conocimientos

Más de 25.000 desarrolladores ya se han certificado con CertiDevs

⭐⭐⭐⭐⭐
4.9/5 valoración