Curso LM Studio con certificado
Este curso completo de LM Studio cubre la herramienta de principio a fin: desde la instalacion y la descarga de modelos hasta el despliegue headless en produccion, pasando por la interfaz de chat, la aceleracion GPU, el servidor API, el SDK de Python, function calling, agentes autonomos, RAG, modelos de vision, MCP e integraciones con frameworks del ecosistema IA. Esta disenado para proporcionar un dominio profesional de LM Studio como plataforma completa para ejecutar y programar contra LLMs locales.
El itinerario es progresivo: parte de los fundamentos y la instalacion, avanza por los modelos y la interfaz de chat, incorpora la configuracion de GPU y rendimiento, recorre el servidor API con compatibilidad OpenAI y Anthropic, profundiza en el SDK de Python con structured output y agentes, cubre embeddings, RAG y vision, y culmina con la CLI, MCP, integraciones y despliegue en produccion.
Publico objetivo
- Desarrolladores Python que quieren dominar LM Studio como plataforma completa para LLMs locales.
- Ingenieros de IA y ML que necesitan ejecutar modelos en local para desarrollo, pruebas y produccion sin costes de API.
- Usuarios avanzados de LLMs que quieren pasar de usar la interfaz de chat a programar contra la API y el SDK.
- Arquitectos de software que necesitan evaluar y disenar soluciones con inferencia local a nivel empresarial.
- Equipos de desarrollo que buscan integrar LLMs locales en sus pipelines de IA con LangChain, Claude Code o Cursor.
- Administradores de sistemas que necesitan desplegar inferencia local con llmster daemon en servidores headless.
Contenido del roadmap
Introduccion a LM Studio
Que es LM Studio, por que ejecutar LLMs en local (privacidad, coste, latencia). Comparativa con Ollama y alternativas. Instalacion en Windows, macOS y Linux con requisitos de hardware. Primer uso completo: descargar un modelo, cargarlo y conversar.
Modelos locales y Hugging Face
Formatos de modelo: GGUF (llama.cpp) y MLX (Apple Silicon). Cuantizacion: niveles Q2 a Q8 y F16, impacto en calidad y memoria, como elegir. Descubrimiento y descarga de modelos desde Hugging Face y LM Studio Hub. Familias de modelos: Llama, Qwen, DeepSeek, Mistral, Gemma, Phi y criterios de seleccion.
Interfaz de chat y configuracion
Conversacion con system prompts y roles. Presets para guardar y reutilizar configuraciones. Parametros de generacion: temperature, top_p, top_k, max_tokens y penalizaciones. Split view para comparar modelos, carpetas, exportacion y busqueda.
GPU, rendimiento y optimizacion
Aceleracion GPU con NVIDIA CUDA, Apple Metal/MLX y AMD ROCm. Multi-GPU: activar GPUs individuales, estrategias de distribucion y offload. Speculative decoding con modelos draft para 1.5x-3x de velocidad. Flash Attention, KV cache quantization, context length y gestion de memoria VRAM.
Servidor API local
Iniciar el servidor local con puerto, CORS y permisos. API compatible con OpenAI: /v1/chat/completions, /v1/models, /v1/embeddings. API compatible con Anthropic: /v1/messages. API nativa: /api/v1/chat, load, unload, download y conversaciones estateful. Tokens de autenticacion y Permission Keys.
Python SDK
Instalacion del paquete lmstudio y tres patrones de API: interactivo, sincrono y asincrono. Chat completions con lms.llm(), respond() y streaming. Gestion de modelos desde Python: cargar, descargar, listar y configurar GPU. Conversaciones multi-turno con historial y parametros avanzados.
Structured output y tool use
Structured output con JSON mode, JSON schema y Pydantic para datos validados. Grammar-based sampling con llama.cpp y Outlines con MLX. Tool use y function calling: definicion de herramientas, tool_choice y ejecucion. Agentes autonomos con .act() para ejecucion iterativa multi-paso.
Embeddings, RAG y modelos de vision
Modelos de embedding: generacion de vectores y similitud semantica. RAG integrado: chat con documentos PDF, DOCX y TXT con chunking y retrieval automatico. Modelos de vision (VLMs): imagenes como entrada con Qwen2VL, Gemma 3 y GLM-4V.
CLI (lms)
Comandos basicos: lms chat, lms get, lms ls, lms ps. Gestion avanzada: lms load con GPU y context length, lms unload, lms import. Servidor y daemon: lms server start/stop y lms daemon para despliegue headless.
MCP e integraciones
MCP en LM Studio: configurar servidores MCP via mcp.json, usar tools MCP en chat. Integracion con LangChain como proveedor OpenAI-compatible local. LM Studio como backend para Claude Code y Cursor. Otros frameworks: Vercel AI SDK, liteLLM y AutoGen.
Despliegue y produccion
llmster daemon: despliegue headless sin GUI para servidores y CI/CD. JIT loading, TTL, auto-eviction y continuous batching. LM Link para compartir modelos en red local entre dispositivos.
Objetivos de aprendizaje
Al completar este roadmap, seras capaz de:
- Gestionar modelos locales: descargar, configurar y ejecutar modelos GGUF y MLX eligiendo la cuantizacion optima para tu hardware.
- Optimizar el rendimiento: configurar aceleracion GPU, multi-GPU, speculative decoding y gestion de memoria VRAM.
- Servir modelos via API: exponer LLMs locales como servidor compatible con OpenAI y Anthropic para cualquier cliente.
- Desarrollar con el SDK de Python: generar texto, gestionar modelos, crear conversaciones multi-turno y usar streaming.
- Obtener datos estructurados: usar structured output con JSON schema y Pydantic para respuestas validadas.
- Construir agentes autonomos: usar function calling y
.act()para crear agentes que ejecuten herramientas iterativamente. - Implementar RAG y vision: chatear con documentos y procesar imagenes con modelos de vision multimodal.
- Gestionar desde terminal: usar la CLI
lmspara todas las operaciones de modelos y servidor. - Integrar con el ecosistema IA: conectar LM Studio con LangChain, Claude Code, Cursor, MCP y otros frameworks.
- Desplegar en produccion: usar llmster daemon para inferencia headless, configurar TTL y continuous batching.
Explorar más cursos de programación
Descubre más cursos y hojas de ruta de programación
Alan Sastre
Ingeniero de Software y formador, CEO en CertiDevs
Ingeniero de software especializado en Full Stack y en Inteligencia Artificial. Como CEO de CertiDevs, se dedica a crear hojas de ruta y cursos de programación estructurados. Con más de 15 años programando, 6K seguidores en LinkedIn y experiencia como formador, Alan diseña contenido educativo de calidad para desarrolladores de todos los niveles.