La API Responses para generar texto
La API Responses representa la evolución más reciente de OpenAI para la generación de texto, diseñada para simplificar significativamente el proceso de interacción con los modelos de lenguaje. Esta nueva interfaz elimina la complejidad de las estructuras de mensajes tradicionales y ofrece una experiencia más directa e intuitiva.
Estructura básica de la API Responses
La API Responses utiliza un enfoque minimalista que reduce la generación de texto a sus elementos esenciales: un modelo, una entrada y una salida. Esta simplicidad no compromete la potencia del sistema, sino que la hace más accesible.
from openai import OpenAI
client = OpenAI()
response = client.responses.create(
model="gpt-4.1",
input="Explica qué es la fotosíntesis en términos simples"
)
print(response.output_text)
El parámetro **input**
acepta directamente el texto que queremos procesar, sin necesidad de estructurarlo en formato de mensajes. El modelo procesa esta entrada y devuelve el resultado en el atributo output_text
del objeto respuesta.
Configuración de parámetros avanzados
Aunque la API Responses prioriza la simplicidad, también permite personalizar el comportamiento del modelo mediante parámetros adicionales que controlan aspectos como la creatividad y la longitud de la respuesta.
response = client.responses.create(
model="gpt-4.1",
input="Escribe un poema sobre el océano",
temperature=0.8,
max_tokens=150
)
print(response.output_text)
El parámetro **temperature**
controla la creatividad del modelo, donde valores más altos (cercanos a 1.0) generan respuestas más creativas y variadas, mientras que valores más bajos (cercanos a 0.0) producen respuestas más deterministas y consistentes.
Trabajando con diferentes tipos de contenido
La API Responses maneja eficientemente diversos tipos de solicitudes, desde generación creativa hasta análisis técnico, adaptándose automáticamente al contexto proporcionado en la entrada.
# Generación creativa
creative_response = client.responses.create(
model="gpt-4.1",
input="Inventa una historia corta sobre un robot que aprende a cocinar",
temperature=0.9
)
# Análisis técnico
technical_response = client.responses.create(
model="gpt-4.1",
input="Analiza las ventajas y desventajas del uso de microservicios",
temperature=0.3
)
print("Historia:", creative_response.output_text)
print("Análisis:", technical_response.output_text)
Gestión de respuestas y metadatos
El objeto respuesta contiene información adicional útil para el monitoreo y la optimización de las solicitudes. Esta metadata incluye detalles sobre el uso de tokens y el tiempo de procesamiento.
response = client.responses.create(
model="gpt-4.1",
input="Resume los principales beneficios de la energía renovable"
)
print("Texto generado:", response.output_text)
print("Tokens utilizados:", response.usage.total_tokens)
print("Modelo usado:", response.model)
print("ID de respuesta:", response.id)
La propiedad **usage**
proporciona información detallada sobre el consumo de tokens, incluyendo tokens de entrada (prompt_tokens
) y tokens de salida (completion_tokens
), lo que resulta esencial para el control de costos y la optimización del rendimiento.
Selección de modelos optimizada
Guarda tu progreso
Inicia sesión para no perder tu progreso y accede a miles de tutoriales, ejercicios prácticos y nuestro asistente de IA.
Más de 25.000 desarrolladores ya confían en CertiDevs
La API Responses funciona con los modelos más recientes de OpenAI, cada uno optimizado para diferentes casos de uso y niveles de complejidad computacional.
# Para tareas complejas que requieren máximo rendimiento
advanced_response = client.responses.create(
model="gpt-4.1",
input="Desarrolla un plan de negocio para una startup de tecnología educativa"
)
# Para tareas rápidas y eficientes
quick_response = client.responses.create(
model="gpt-4.1-mini",
input="Traduce esta frase al inglés: 'La tecnología cambia constantemente'"
)
# Para procesamiento ultrarrápido de tareas simples
nano_response = client.responses.create(
model="gpt-4.1-nano",
input="Genera un título atractivo para un artículo sobre inteligencia artificial"
)
El modelo **gpt-4.1**
ofrece el máximo rendimiento para tareas complejas, mientras que gpt-4.1-mini
proporciona un equilibrio entre velocidad y capacidad, y gpt-4.1-nano
está optimizado para respuestas rápidas en tareas específicas.
Manejo de errores y validación
La implementación robusta requiere gestión adecuada de errores para manejar situaciones como límites de tokens excedidos o problemas de conectividad.
try:
response = client.responses.create(
model="gpt-4.1",
input="Explica la teoría de la relatividad de Einstein",
max_tokens=200
)
if response.output_text:
print("Respuesta generada exitosamente:")
print(response.output_text)
else:
print("No se generó contenido en la respuesta")
except Exception as e:
print(f"Error al generar respuesta: {e}")
Esta aproximación garantiza que la aplicación maneje graciosamente los errores potenciales y proporcione retroalimentación útil al usuario cuando algo no funciona según lo esperado.
Aprendizajes de esta lección
- Comprender la estructura básica y funcionamiento de la API Responses.
- Aprender a configurar parámetros avanzados como temperature y max_tokens.
- Saber manejar diferentes tipos de contenido y solicitudes con la API.
- Conocer cómo acceder y utilizar metadatos de las respuestas para optimización.
- Implementar gestión de errores para asegurar robustez en las aplicaciones.
Completa OpenAI y certifícate
Únete a nuestra plataforma y accede a miles de tutoriales, ejercicios prácticos, proyectos reales y nuestro asistente de IA personalizado para acelerar tu aprendizaje.
Asistente IA
Resuelve dudas al instante
Ejercicios
Practica con proyectos reales
Certificados
Valida tus conocimientos
Más de 25.000 desarrolladores ya se han certificado con CertiDevs