La API Responses para generar texto
La API Responses representa la evolución más reciente de OpenAI para la generación de texto, diseñada para simplificar significativamente el proceso de interacción con los modelos de lenguaje. Esta nueva interfaz elimina la complejidad de las estructuras de mensajes tradicionales y ofrece una experiencia más directa e intuitiva.
Estructura básica de la API Responses
La API Responses utiliza un enfoque minimalista que reduce la generación de texto a sus elementos esenciales: un modelo, una entrada y una salida. Esta simplicidad no compromete la potencia del sistema, sino que la hace más accesible.
from openai import OpenAI
client = OpenAI()
response = client.responses.create(
model="gpt-4.1",
input="Explica qué es la fotosíntesis en términos simples"
)
print(response.output_text)
El parámetro **input**
acepta directamente el texto que queremos procesar, sin necesidad de estructurarlo en formato de mensajes. El modelo procesa esta entrada y devuelve el resultado en el atributo output_text
del objeto respuesta.
Configuración de parámetros avanzados
Aunque la API Responses prioriza la simplicidad, también permite personalizar el comportamiento del modelo mediante parámetros adicionales que controlan aspectos como la creatividad y la longitud de la respuesta.
response = client.responses.create(
model="gpt-4.1",
input="Escribe un poema sobre el océano",
temperature=0.8,
max_tokens=150
)
print(response.output_text)
El parámetro **temperature**
controla la creatividad del modelo, donde valores más altos (cercanos a 1.0) generan respuestas más creativas y variadas, mientras que valores más bajos (cercanos a 0.0) producen respuestas más deterministas y consistentes.
Trabajando con diferentes tipos de contenido
La API Responses maneja eficientemente diversos tipos de solicitudes, desde generación creativa hasta análisis técnico, adaptándose automáticamente al contexto proporcionado en la entrada.
# Generación creativa
creative_response = client.responses.create(
model="gpt-4.1",
input="Inventa una historia corta sobre un robot que aprende a cocinar",
temperature=0.9
)
# Análisis técnico
technical_response = client.responses.create(
model="gpt-4.1",
input="Analiza las ventajas y desventajas del uso de microservicios",
temperature=0.3
)
print("Historia:", creative_response.output_text)
print("Análisis:", technical_response.output_text)
Gestión de respuestas y metadatos
El objeto respuesta contiene información adicional útil para el monitoreo y la optimización de las solicitudes. Esta metadata incluye detalles sobre el uso de tokens y el tiempo de procesamiento.
response = client.responses.create(
model="gpt-4.1",
input="Resume los principales beneficios de la energía renovable"
)
print("Texto generado:", response.output_text)
print("Tokens utilizados:", response.usage.total_tokens)
print("Modelo usado:", response.model)
print("ID de respuesta:", response.id)
La propiedad **usage**
proporciona información detallada sobre el consumo de tokens, incluyendo tokens de entrada (prompt_tokens
) y tokens de salida (completion_tokens
), lo que resulta esencial para el control de costos y la optimización del rendimiento.
Selección de modelos optimizada
La API Responses funciona con los modelos más recientes de OpenAI, cada uno optimizado para diferentes casos de uso y niveles de complejidad computacional.
# Para tareas complejas que requieren máximo rendimiento
advanced_response = client.responses.create(
model="gpt-4.1",
input="Desarrolla un plan de negocio para una startup de tecnología educativa"
)
# Para tareas rápidas y eficientes
quick_response = client.responses.create(
model="gpt-4.1-mini",
input="Traduce esta frase al inglés: 'La tecnología cambia constantemente'"
)
# Para procesamiento ultrarrápido de tareas simples
nano_response = client.responses.create(
model="gpt-4.1-nano",
input="Genera un título atractivo para un artículo sobre inteligencia artificial"
)
El modelo **gpt-4.1**
ofrece el máximo rendimiento para tareas complejas, mientras que gpt-4.1-mini
proporciona un equilibrio entre velocidad y capacidad, y gpt-4.1-nano
está optimizado para respuestas rápidas en tareas específicas.
Manejo de errores y validación
La implementación robusta requiere gestión adecuada de errores para manejar situaciones como límites de tokens excedidos o problemas de conectividad.
try:
response = client.responses.create(
model="gpt-4.1",
input="Explica la teoría de la relatividad de Einstein",
max_tokens=200
)
if response.output_text:
print("Respuesta generada exitosamente:")
print(response.output_text)
else:
print("No se generó contenido en la respuesta")
except Exception as e:
print(f"Error al generar respuesta: {e}")
Esta aproximación garantiza que la aplicación maneje graciosamente los errores potenciales y proporcione retroalimentación útil al usuario cuando algo no funciona según lo esperado.
Fuentes y referencias
Documentación oficial y recursos externos para profundizar en OpenAI
Documentación oficial de OpenAI
Alan Sastre
Ingeniero de Software y formador, CEO en CertiDevs
Ingeniero de software especializado en Full Stack y en Inteligencia Artificial. Como CEO de CertiDevs, OpenAI es una de sus áreas de expertise. Con más de 15 años programando, 6K seguidores en LinkedIn y experiencia como formador, Alan se dedica a crear contenido educativo de calidad para desarrolladores de todos los niveles.
Más tutoriales de OpenAI
Explora más contenido relacionado con OpenAI y continúa aprendiendo con nuestros tutoriales gratuitos.
Aprendizajes de esta lección
- Comprender la estructura básica y funcionamiento de la API Responses.
- Aprender a configurar parámetros avanzados como temperature y max_tokens.
- Saber manejar diferentes tipos de contenido y solicitudes con la API.
- Conocer cómo acceder y utilizar metadatos de las respuestas para optimización.
- Implementar gestión de errores para asegurar robustez en las aplicaciones.