Obtener API KEY de Google AI Studio
Para utilizar los modelos de Google Gemini en LangChain, es necesario obtener una credencial de acceso a través de Google AI Studio. Esta plataforma facilita el uso de los modelos más avanzados de Google sin la complejidad de gestionar un proyecto completo de Google Cloud Platform (GCP).
Accede a aistudio.google.com e inicia sesión con tu cuenta de Google. AI Studio ofrece una interfaz amigable para prototipar prompts y gestionar tus claves de API.
- 1. Creación de la clave:
En el panel lateral, selecciona "Get API key" y luego "Create API key". Puedes asociarla a un proyecto existente o crear uno nuevo automáticamente.
AIzaSyBxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
- 2. Configuración de seguridad:
Guarda esta clave en un archivo .env para mantenerla fuera de tu código fuente.
GOOGLE_API_KEY=AIzaSyBxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
- 3. Verificación en el código:
Carga la variable de entorno al iniciar tu script para asegurar que LangChain pueda acceder a ella.
import os
from dotenv import load_dotenv
load_dotenv()
if os.getenv("GOOGLE_API_KEY"):
print("Credenciales de Google configuradas")
Invocar modelos de Google GenAI en LangChain
La integración de los modelos Gemini en LangChain se realiza a través del paquete langchain-google-genai. Google ofrece modelos con ventanas de contexto masivas y capacidades multimodales nativas.
Instalación del paquete
Instala la librería necesaria para conectar con la API de Gemini:
pip install langchain-google-genai
Opción 1: Inicialización moderna con init_chat_model
La función init_chat_model simplifica la instanciación de modelos, permitiendo cambiar de proveedor simplemente modificando una cadena de texto.
- 1. Configuración unificada:
from langchain.chat_models import init_chat_model
# Inicializar Gemini 3 Pro
llm = init_chat_model(
"gemini-3-pro",
model_provider="google_genai",
temperature=0.7
)
response = llm.invoke("¿Qué es la inteligencia artificial generativa?")
print(response.content)
Opción 2: Clase ChatGoogleGenerativeAI
Para aprovechar al máximo las características específicas de Google (como los ajustes de seguridad detallados), utiliza la clase ChatGoogleGenerativeAI.
- 1. Instanciación directa:
from langchain_google_genai import ChatGoogleGenerativeAI
llm = ChatGoogleGenerativeAI(
model="gemini-3-pro",
temperature=0.3,
max_retries=2
)
Selección de modelos
Google dispone de varias versiones de Gemini, cada una adecuada para distintos casos de uso.
- 1. Gemini 3 Pro:
El modelo más avanzado para razonamiento complejo, análisis multimodal y tareas que requieren una ventana de contexto extensa.
pro_model = ChatGoogleGenerativeAI(model="gemini-3-pro")
- 2. Gemini 2.5 Flash:
Un modelo optimizado para alta velocidad y bajo coste, ideal para tareas de alto volumen o aplicaciones que requieren baja latencia.
flash_model = ChatGoogleGenerativeAI(model="gemini-2.5-flash")
Configuración avanzada y seguridad
Google permite un control granular sobre los filtros de seguridad del modelo, lo cual es crucial para aplicaciones en entornos sensibles.
- 1. Ajuste de filtros de seguridad:
Puedes configurar el umbral de bloqueo para diferentes categorías de daño.
from langchain_google_genai import HarmBlockThreshold, HarmCategory
llm_seguro = ChatGoogleGenerativeAI(
model="gemini-3-pro",
safety_settings={
HarmCategory.HARM_CATEGORY_HATE_SPEECH: HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
HarmCategory.HARM_CATEGORY_HARASSMENT: HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE,
}
)
Flujos con LangChain Expression Language (LCEL)
Los modelos de Google se integran perfectamente con LCEL para construir cadenas de procesamiento de datos.
- 1. Ejemplo de cadena simple:
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser
prompt = ChatPromptTemplate.from_template(
"Traduce la siguiente frase técnica al inglés: {texto}"
)
chain = prompt | flash_model | StrOutputParser()
resultado = chain.invoke({"texto": "Despliegue continuo en kubernetes"})
print(resultado)
Streaming de respuestas
Para mejorar la experiencia de usuario en interfaces de chat, puedes consumir la respuesta token a token a medida que se genera.
for chunk in flash_model.stream("Escribe una lista de 5 consejos de productividad"):
print(chunk.content, end="", flush=True)
Fuentes y referencias
Documentación oficial y recursos externos para profundizar en LangChain
Documentación oficial de LangChain
Alan Sastre
Ingeniero de Software y formador, CEO en CertiDevs
Ingeniero de software especializado en Full Stack y en Inteligencia Artificial. Como CEO de CertiDevs, LangChain es una de sus áreas de expertise. Con más de 15 años programando, 6K seguidores en LinkedIn y experiencia como formador, Alan se dedica a crear contenido educativo de calidad para desarrolladores de todos los niveles.
Más tutoriales de LangChain
Explora más contenido relacionado con LangChain y continúa aprendiendo con nuestros tutoriales gratuitos.
Aprendizajes de esta lección
Configurar la API key de Google AI Studio, inicializar modelos Gemini usando init_chat_model y ChatGoogleGenerativeAI, seleccionar modelos apropiados (Gemini Pro, Flash), y trabajar con capacidades multimodales de Gemini.
Cursos que incluyen esta lección
Esta lección forma parte de los siguientes cursos estructurados con rutas de aprendizaje