Curso LM Studio

Domina LM Studio de principio a fin: modelos locales, API, SDK Python, agentes, RAG, MCP y produccion

Certificado profesional
Curso de programación
25 horas
Intermedio
Actualizado: 18/04/2026

¡Desbloquea el curso completo!

Asistente IA
Ejercicios código
Certificado
Empezar curso

Curso LM Studio con certificado

Este curso completo de LM Studio cubre la herramienta de principio a fin: desde la instalacion y la descarga de modelos hasta el despliegue headless en produccion, pasando por la interfaz de chat, la aceleracion GPU, el servidor API, el SDK de Python, function calling, agentes autonomos, RAG, modelos de vision, MCP e integraciones con frameworks del ecosistema IA. Esta disenado para proporcionar un dominio profesional de LM Studio como plataforma completa para ejecutar y programar contra LLMs locales.

El itinerario es progresivo: parte de los fundamentos y la instalacion, avanza por los modelos y la interfaz de chat, incorpora la configuracion de GPU y rendimiento, recorre el servidor API con compatibilidad OpenAI y Anthropic, profundiza en el SDK de Python con structured output y agentes, cubre embeddings, RAG y vision, y culmina con la CLI, MCP, integraciones y despliegue en produccion.

Publico objetivo

  • Desarrolladores Python que quieren dominar LM Studio como plataforma completa para LLMs locales.
  • Ingenieros de IA y ML que necesitan ejecutar modelos en local para desarrollo, pruebas y produccion sin costes de API.
  • Usuarios avanzados de LLMs que quieren pasar de usar la interfaz de chat a programar contra la API y el SDK.
  • Arquitectos de software que necesitan evaluar y disenar soluciones con inferencia local a nivel empresarial.
  • Equipos de desarrollo que buscan integrar LLMs locales en sus pipelines de IA con LangChain, Claude Code o Cursor.
  • Administradores de sistemas que necesitan desplegar inferencia local con llmster daemon en servidores headless.

Contenido del roadmap

Introduccion a LM Studio

Que es LM Studio, por que ejecutar LLMs en local (privacidad, coste, latencia). Comparativa con Ollama y alternativas. Instalacion en Windows, macOS y Linux con requisitos de hardware. Primer uso completo: descargar un modelo, cargarlo y conversar.

Modelos locales y Hugging Face

Formatos de modelo: GGUF (llama.cpp) y MLX (Apple Silicon). Cuantizacion: niveles Q2 a Q8 y F16, impacto en calidad y memoria, como elegir. Descubrimiento y descarga de modelos desde Hugging Face y LM Studio Hub. Familias de modelos: Llama, Qwen, DeepSeek, Mistral, Gemma, Phi y criterios de seleccion.

Interfaz de chat y configuracion

Conversacion con system prompts y roles. Presets para guardar y reutilizar configuraciones. Parametros de generacion: temperature, top_p, top_k, max_tokens y penalizaciones. Split view para comparar modelos, carpetas, exportacion y busqueda.

GPU, rendimiento y optimizacion

Aceleracion GPU con NVIDIA CUDA, Apple Metal/MLX y AMD ROCm. Multi-GPU: activar GPUs individuales, estrategias de distribucion y offload. Speculative decoding con modelos draft para 1.5x-3x de velocidad. Flash Attention, KV cache quantization, context length y gestion de memoria VRAM.

Servidor API local

Iniciar el servidor local con puerto, CORS y permisos. API compatible con OpenAI: /v1/chat/completions, /v1/models, /v1/embeddings. API compatible con Anthropic: /v1/messages. API nativa: /api/v1/chat, load, unload, download y conversaciones estateful. Tokens de autenticacion y Permission Keys.

Python SDK

Instalacion del paquete lmstudio y tres patrones de API: interactivo, sincrono y asincrono. Chat completions con lms.llm(), respond() y streaming. Gestion de modelos desde Python: cargar, descargar, listar y configurar GPU. Conversaciones multi-turno con historial y parametros avanzados.

Structured output y tool use

Structured output con JSON mode, JSON schema y Pydantic para datos validados. Grammar-based sampling con llama.cpp y Outlines con MLX. Tool use y function calling: definicion de herramientas, tool_choice y ejecucion. Agentes autonomos con .act() para ejecucion iterativa multi-paso.

Embeddings, RAG y modelos de vision

Modelos de embedding: generacion de vectores y similitud semantica. RAG integrado: chat con documentos PDF, DOCX y TXT con chunking y retrieval automatico. Modelos de vision (VLMs): imagenes como entrada con Qwen2VL, Gemma 3 y GLM-4V.

CLI (lms)

Comandos basicos: lms chat, lms get, lms ls, lms ps. Gestion avanzada: lms load con GPU y context length, lms unload, lms import. Servidor y daemon: lms server start/stop y lms daemon para despliegue headless.

MCP e integraciones

MCP en LM Studio: configurar servidores MCP via mcp.json, usar tools MCP en chat. Integracion con LangChain como proveedor OpenAI-compatible local. LM Studio como backend para Claude Code y Cursor. Otros frameworks: Vercel AI SDK, liteLLM y AutoGen.

Despliegue y produccion

llmster daemon: despliegue headless sin GUI para servidores y CI/CD. JIT loading, TTL, auto-eviction y continuous batching. LM Link para compartir modelos en red local entre dispositivos.

Objetivos de aprendizaje

Al completar este roadmap, seras capaz de:

  • Gestionar modelos locales: descargar, configurar y ejecutar modelos GGUF y MLX eligiendo la cuantizacion optima para tu hardware.
  • Optimizar el rendimiento: configurar aceleracion GPU, multi-GPU, speculative decoding y gestion de memoria VRAM.
  • Servir modelos via API: exponer LLMs locales como servidor compatible con OpenAI y Anthropic para cualquier cliente.
  • Desarrollar con el SDK de Python: generar texto, gestionar modelos, crear conversaciones multi-turno y usar streaming.
  • Obtener datos estructurados: usar structured output con JSON schema y Pydantic para respuestas validadas.
  • Construir agentes autonomos: usar function calling y .act() para crear agentes que ejecuten herramientas iterativamente.
  • Implementar RAG y vision: chatear con documentos y procesar imagenes con modelos de vision multimodal.
  • Gestionar desde terminal: usar la CLI lms para todas las operaciones de modelos y servidor.
  • Integrar con el ecosistema IA: conectar LM Studio con LangChain, Claude Code, Cursor, MCP y otros frameworks.
  • Desplegar en produccion: usar llmster daemon para inferencia headless, configurar TTL y continuous batching.

Explorar más cursos de programación

Descubre más cursos y hojas de ruta de programación

Alan Sastre - Autor del curso

Alan Sastre

Ingeniero de Software y formador, CEO en CertiDevs

Ingeniero de software especializado en Full Stack y en Inteligencia Artificial. Como CEO de CertiDevs, se dedica a crear hojas de ruta y cursos de programación estructurados. Con más de 15 años programando, 6K seguidores en LinkedIn y experiencia como formador, Alan diseña contenido educativo de calidad para desarrolladores de todos los niveles.