Configuración de acceso desde Azure AI Foundry
La configuración de acceso a través de Azure AI Foundry requiere varios pasos que van desde la creación del recurso hasta la obtención de las credenciales necesarias para tu aplicación. Este proceso, aunque más complejo que el acceso directo a OpenAI, proporciona mayor control y opciones de configuración empresarial.
Creación del recurso Azure OpenAI
El primer paso consiste en crear un grupo de recursos:
Para ello es necesario una suscripción de pago o de azure for students si tenemos cuenta universitaria.
Después creamos el recurso concreto, que puede ser Azure OpenAI o Azure AI Foundry:
Una vez creado lo abrimos:
A partir de ahí entramos, es posible que nos salga problema de permisos y debamos asignar permisos a nuestro usuario:
Una vez con los permisos asignados podemos desplegar un modelo:
Lo habitual es usar la última serie disponible de modelos de openai:
Pero en el caso de las cuentas de Azure for students están un poco restringidas y no dan cuota a los últimos modelos, por lo que es posible que se deba elegir algún modelo más antiguo como gpt-4o o gpt-4o-mini:
Una vez hecho el deployment del modelo deseado obtenemos el endpoint y api key para usar luego desde python:
un recurso Azure OpenAI desde el portal de Azure. Accede a portal.azure.com y busca "Azure OpenAI" en el marketplace. Durante la creación, deberás especificar la región donde se alojará tu recurso, considerando tanto la latencia como los requisitos de residencia de datos.
Una vez creado el recurso, necesitas configurar un deployment para cada modelo que planees utilizar. Los deployments actúan como instancias específicas de modelos con configuraciones de capacidad y rendimiento personalizadas.
# Configuración básica después de crear el recurso
from openai import AzureOpenAI
client = AzureOpenAI(
azure_endpoint="https://tu-recurso-nombre.openai.azure.com/",
api_key="tu-api-key-aqui",
api_version="2024-12-01-preview"
)
# Verificar la conexión
try:
response = client.responses.create(
model="gpt-4-1-deployment", # Nombre de tu deployment
input="Hola, confirma que la conexión funciona correctamente"
)
print("Conexión exitosa:", response.output_text)
except Exception as e:
print(f"Error de conexión: {e}")
Otra opción es usar variables de entorno colocadas en el archivo .env de nuestro proyecto:
from openai import AzureOpenAI
# Requiere .env con las variables
# AZURE_OPENAI_API_KEY=xx
# OPENAI_API_VERSION=2025-01-01-preview
# AZURE_OPENAI_ENDPOINT=https://alan-mb7rf7xe-swedencentral.cognitiveservices.azure.com/
client = AzureOpenAI()
response = client.chat.completions.create(
model='gpt-4o',
messages=[
{
"role": "system",
"content": "Eres un asistente de Python.",
},
{
"role": "user",
"content": "explica el operador union en python",
}
],
max_tokens=4096,
temperature=1.0,
top_p=1.0,
)
print(response.choices[0].message.content)
Resultado:
¿Te está gustando esta lección?
Inicia sesión para no perder tu progreso y accede a miles de tutoriales, ejercicios prácticos y nuestro asistente de IA.
Más de 25.000 desarrolladores ya confían en CertiDevs
Azure AI Foundry vs OpenAI directo
Cuando trabajas con modelos de OpenAI, tienes dos opciones principales para acceder a la API: directamente desde OpenAI o a través de Azure AI Foundry. Ambas opciones te permiten utilizar los mismos modelos avanzados como GPT-4.1, pero difieren significativamente en términos de infraestructura, cumplimiento normativo y gestión empresarial.
Diferencias clave entre ambas plataformas
OpenAI directo es la opción más sencilla para proyectos individuales o startups. Te registras en platform.openai.com, obtienes tu API key y puedes empezar a desarrollar inmediatamente. Esta aproximación es ideal cuando necesitas flexibilidad máxima y acceso rápido a las últimas funcionalidades.
from openai import OpenAI
# Configuración directa con OpenAI
client = OpenAI() # Detecta automáticamente OPENAI_API_KEY
response = client.responses.create(
model="gpt-4.1",
input="Analiza las tendencias del mercado tecnológico"
)
print(response.output_text)
Azure AI Foundry, por otro lado, integra los modelos de OpenAI dentro del ecosistema de Microsoft Azure. Esta opción proporciona mayor control empresarial y cumplimiento con regulaciones específicas de cada región geográfica.
from openai import AzureOpenAI
# Configuración a través de Azure AI Foundry
client = AzureOpenAI(
azure_endpoint="https://tu-recurso.openai.azure.com/",
api_version="2024-12-01-preview"
)
response = client.responses.create(
model="gpt-4.1", # Nombre del deployment en Azure
input="Analiza las tendencias del mercado tecnológico"
)
print(response.output_text)
Ventajas de OpenAI directo
La simplicidad de configuración es la principal ventaja de usar OpenAI directamente. No necesitas configurar recursos adicionales ni gestionar deployments complejos. Además, tienes acceso inmediato a nuevos modelos como o3 o las últimas versiones de GPT-4.1-nano tan pronto como se lanzan.
El modelo de facturación también es más transparente, pagando únicamente por tokens consumidos sin costes adicionales de infraestructura. Para desarrolladores individuales o equipos pequeños, esta opción resulta más económica y directa.
Ventajas de Azure AI Foundry
Azure AI Foundry destaca en entornos empresariales donde el cumplimiento normativo es crítico. Los datos se procesan en regiones específicas que puedes seleccionar, cumpliendo con regulaciones como GDPR o normativas sectoriales específicas.
La integración con Azure permite combinar los modelos de OpenAI con otros servicios como Azure Cognitive Services, Azure Machine Learning o bases de datos Azure SQL. Esta integración facilita la construcción de soluciones empresariales complejas.
# Ejemplo de integración con Azure Key Vault
from azure.keyvault.secrets import SecretClient
from azure.identity import DefaultAzureCredential
from openai import AzureOpenAI
# Obtener credenciales desde Azure Key Vault
credential = DefaultAzureCredential()
secret_client = SecretClient(vault_url="https://tu-keyvault.vault.azure.net/", credential=credential)
api_key = secret_client.get_secret("openai-api-key").value
client = AzureOpenAI(
api_key=api_key,
azure_endpoint="https://tu-recurso.openai.azure.com/",
api_version="2024-12-01-preview"
)
Control de acceso y seguridad
Azure AI Foundry proporciona control granular de acceso mediante Azure Active Directory, permitiendo gestionar permisos a nivel de usuario, grupo o aplicación. Puedes implementar políticas de acceso condicional y auditar todas las interacciones con la API.
La red privada es otra ventaja significativa. Puedes configurar endpoints privados para que el tráfico hacia los modelos de OpenAI nunca salga de tu red privada virtual de Azure, aumentando considerablemente la seguridad.
Consideraciones de rendimiento y disponibilidad
OpenAI directo ofrece menor latencia al eliminar capas intermedias de Azure. Sin embargo, Azure AI Foundry proporciona SLA empresariales más robustos y opciones de alta disponibilidad con failover automático entre regiones.
Para aplicaciones que requieren procesamiento de grandes volúmenes, Azure AI Foundry permite configurar cuotas dedicadas y reservar capacidad específica, evitando limitaciones de rate limiting que pueden afectar a usuarios de OpenAI directo.
Cuándo elegir cada opción
Elige OpenAI directo cuando:
- Desarrollas prototipos o aplicaciones personales
- Necesitas acceso inmediato a nuevos modelos
- Tu equipo es pequeño y la simplicidad es prioritaria
- No tienes requisitos específicos de cumplimiento normativo
Opta por Azure AI Foundry cuando:
- Trabajas en un entorno empresarial con requisitos de compliance
- Necesitas integración con otros servicios de Azure
- Requieres control granular de acceso y auditoría
- La residencia de datos en regiones específicas es obligatoria
- Planificas despliegues a gran escala con SLA garantizados
Aprendizajes de esta lección
- Comprender las diferencias entre acceder a OpenAI directamente y mediante Azure AI Foundry.
- Aprender a crear y configurar recursos y deployments en Azure AI Foundry.
- Conocer cómo obtener y gestionar credenciales y endpoints para la API.
- Entender la gestión de permisos, cuotas y seguridad en Azure AI Foundry.
- Saber cómo monitorizar, hacer logging y configurar entornos para producción y desarrollo.
Completa OpenAI y certifícate
Únete a nuestra plataforma y accede a miles de tutoriales, ejercicios prácticos, proyectos reales y nuestro asistente de IA personalizado para acelerar tu aprendizaje.
Asistente IA
Resuelve dudas al instante
Ejercicios
Practica con proyectos reales
Certificados
Valida tus conocimientos
Más de 25.000 desarrolladores ya se han certificado con CertiDevs