Obtener API KEY de Google AI Studio
Para utilizar los modelos de Google Gemini en LangChain, necesitamos obtener una clave de API desde Google AI Studio. Esta plataforma nos proporciona acceso directo a los modelos de Google sin la complejidad de configurar Google Cloud Platform.
Acceso a Google AI Studio
Google AI Studio es la plataforma gratuita de Google que permite experimentar con sus modelos de inteligencia artificial más recientes. A diferencia de Google Vertex AI, no requiere configuración de facturación ni conocimientos avanzados de Google Cloud Platform.
Para comenzar, accede a https://aistudio.google.com/ utilizando tu cuenta de Google. Una vez dentro de la plataforma, encontrarás una interfaz intuitiva que te permitirá tanto experimentar con los modelos como obtener las credenciales necesarias para integrarlos en tus aplicaciones.
Generación de la API Key
En el panel principal de Google AI Studio, busca la sección "Get API key" o el icono de llave que suele aparecer en la barra lateral izquierda. Al hacer clic, se abrirá un modal donde podrás crear una nueva clave de API.
El proceso es sencillo: selecciona "Create API key" y elige el proyecto de Google Cloud asociado. Si no tienes un proyecto creado, Google AI Studio te permitirá crear uno automáticamente. Una vez generada, la clave tendrá un formato similar a este:
AIzaSyBxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
Importante: Copia esta clave inmediatamente y guárdala en un lugar seguro, ya que Google AI Studio solo la mostrará una vez por motivos de seguridad.
Configuración de variables de entorno
Para que LangChain pueda detectar automáticamente tu clave de API, debes configurarla como variable de entorno. Crea un archivo .env
en la raíz de tu proyecto y añade la siguiente línea:
GOOGLE_API_KEY=AIzaSyBxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
Esta configuración permite que LangChain acceda a la clave sin necesidad de especificarla directamente en el código, siguiendo las mejores prácticas de seguridad. Asegúrate de que el archivo .env
esté incluido en tu .gitignore
para evitar exponer credenciales en repositorios públicos.
Verificación de la configuración
Para verificar que la configuración es correcta, puedes usar el siguiente código que carga las variables de entorno:
import os
from dotenv import load_dotenv
# Cargar variables de entorno
load_dotenv()
# Verificar que la clave está disponible
api_key = os.getenv("GOOGLE_API_KEY")
if api_key:
print("✓ API Key configurada correctamente")
else:
print("✗ API Key no encontrada")
Una vez completada esta configuración, tendrás todo lo necesario para comenzar a utilizar los modelos de Google Gemini en tus aplicaciones LangChain. La clave de API te dará acceso a modelos como gemini-2.0-flash-exp
y gemini-1.5-pro
, que ofrecen capacidades avanzadas de procesamiento de texto y multimodal.
Invocar modelos de Google GenAI en LangChain
Guarda tu progreso
Inicia sesión para no perder tu progreso y accede a miles de tutoriales, ejercicios prácticos y nuestro asistente de IA.
Más de 25.000 desarrolladores ya confían en CertiDevs
Una vez configurada la API Key de Google AI Studio, podemos integrar los modelos de Google Gemini en nuestras aplicaciones LangChain. Google ofrece varios modelos optimizados para diferentes casos de uso, desde tareas rápidas hasta análisis complejos que requieren mayor capacidad de razonamiento.
Instalación del paquete necesario
Antes de comenzar, necesitamos instalar el paquete específico para la integración con Google GenAI:
pip install langchain-google-genai
Este paquete contiene todas las clases y funciones necesarias para trabajar con los modelos de Google desde LangChain, incluyendo soporte para chat, embeddings y otras funcionalidades avanzadas.
Modelos disponibles
Google AI Studio proporciona acceso a varios modelos de la familia Gemini, cada uno optimizado para diferentes escenarios:
- Gemini 2.5 Pro: Modelo de IA más inteligente con capacidades de razonamiento avanzadas ("thinking"), líder en benchmarks de matemáticas, ciencias y programación. Ventana de contexto de 2 millones de tokens.
- Gemini 2.5 Flash: Modelo optimizado para eficiencia de costos y baja latencia, versión más económica del 2.5 Pro manteniendo capacidades de razonamiento.
Para estar al día en todos los modelos de Google recomendamos revisar la doc oficial aquí:
Opción 1: Usando init_chat_model
La forma más moderna y recomendada de inicializar modelos en LangChain 0.3 es utilizando la función init_chat_model
. Esta función proporciona una interfaz unificada para trabajar con diferentes proveedores:
from langchain_core.language_models import init_chat_model
# Inicializar modelo usando init_chat_model
model = init_chat_model(
model="gemini-1.5-pro",
model_provider="google-genai",
temperature=0.7
)
# Invocar el modelo directamente
response = model.invoke("Explica qué es la programación funcional")
print(response.content)
Esta aproximación es especialmente útil cuando trabajas con múltiples proveedores en la misma aplicación, ya que mantiene una interfaz consistente independientemente del modelo subyacente.
Opción 2: Usando ChatGoogleGenerativeAI directamente
Para casos donde necesitas control específico sobre la configuración del modelo de Google, puedes usar directamente la clase ChatGoogleGenerativeAI
:
from langchain_google_genai import ChatGoogleGenerativeAI
# Inicializar modelo directamente
model = ChatGoogleGenerativeAI(
model="gemini-1.5-flash",
temperature=0.3,
max_tokens=1000,
timeout=30,
max_retries=2
)
# Usar el modelo
response = model.invoke("¿Cuáles son las ventajas de usar LangChain?")
print(response.content)
Esta clase te permite configurar parámetros específicos como timeouts, reintentos y límites de tokens de manera más granular.
Ejemplo:
Configuración de parámetros
Los modelos de Google GenAI admiten varios parámetros que puedes ajustar según tus necesidades:
from langchain_google_genai import ChatGoogleGenerativeAI
model = ChatGoogleGenerativeAI(
model="gemini-1.5-pro",
temperature=0.1, # Control de creatividad (0.0-1.0)
max_tokens=2048, # Límite de tokens en la respuesta
top_p=0.8, # Control de diversidad
top_k=40, # Número de tokens candidatos
safety_settings={ # Configuración de seguridad
"HARM_CATEGORY_HARASSMENT": "BLOCK_MEDIUM_AND_ABOVE",
"HARM_CATEGORY_HATE_SPEECH": "BLOCK_MEDIUM_AND_ABOVE"
}
)
Ejemplo práctico con LCEL
LangChain 0.3 prioriza el uso de LangChain Expression Language (LCEL) para crear cadenas de procesamiento. Aquí un ejemplo que combina un modelo de Google con prompts estructurados:
from langchain_core.prompts import ChatPromptTemplate
from langchain_google_genai import ChatGoogleGenerativeAI
# Crear el modelo
model = ChatGoogleGenerativeAI(
model="gemini-1.5-flash",
temperature=0.5
)
# Definir el prompt
prompt = ChatPromptTemplate.from_messages([
("system", "Eres un asistente experto en programación Python."),
("user", "Explica el concepto de {concepto} con un ejemplo práctico.")
])
# Crear la cadena usando LCEL
chain = prompt | model
# Ejecutar la cadena
result = chain.invoke({"concepto": "decoradores"})
print(result.content)
Manejo de respuestas streaming
Para aplicaciones que requieren respuestas en tiempo real, puedes usar el modo streaming:
from langchain_google_genai import ChatGoogleGenerativeAI
model = ChatGoogleGenerativeAI(
model="gemini-1.5-flash",
temperature=0.7
)
# Streaming de respuesta
for chunk in model.stream("Escribe un poema sobre la inteligencia artificial"):
print(chunk.content, end="", flush=True)
Este enfoque es especialmente útil para interfaces de usuario donde quieres mostrar la respuesta mientras se genera, mejorando la experiencia del usuario.
Gestión de errores
Es importante implementar un manejo robusto de errores cuando trabajas con APIs externas:
from langchain_google_genai import ChatGoogleGenerativeAI
from langchain_core.exceptions import LangChainException
model = ChatGoogleGenerativeAI(model="gemini-1.5-pro")
try:
response = model.invoke("Tu pregunta aquí")
print(response.content)
except LangChainException as e:
print(f"Error de LangChain: {e}")
except Exception as e:
print(f"Error inesperado: {e}")
Con estas configuraciones, tienes todo lo necesario para integrar los modelos de Google Gemini en tus aplicaciones LangChain de manera eficiente y robusta.
Aprendizajes de esta lección
- Obtener y configurar la API Key de Google AI Studio para acceder a modelos Google Gemini.
- Instalar y utilizar el paquete langchain-google-genai para integrar modelos de Google en LangChain.
- Inicializar modelos Google Gemini usando init_chat_model y ChatGoogleGenerativeAI.
- Configurar parámetros avanzados y manejar respuestas en streaming.
- Implementar manejo de errores para interacciones robustas con la API de Google GenAI.
Completa LangChain y certifícate
Únete a nuestra plataforma y accede a miles de tutoriales, ejercicios prácticos, proyectos reales y nuestro asistente de IA personalizado para acelerar tu aprendizaje.
Asistente IA
Resuelve dudas al instante
Ejercicios
Practica con proyectos reales
Certificados
Valida tus conocimientos
Más de 25.000 desarrolladores ya se han certificado con CertiDevs