Curso Introduccion a LM Studio

Aprende a ejecutar LLMs en local con LM Studio: modelos, chat, API y primeros pasos con Python

Certificado profesional
Curso de programación
3 horas
Básico
Actualizado: 18/04/2026

¡Desbloquea el curso completo!

Asistente IA
Ejercicios código
Certificado
Empezar curso

Curso Introduccion a LM Studio con certificado

Este curso introductorio de LM Studio proporciona las bases para ejecutar modelos de lenguaje en local con total privacidad y sin costes de inferencia. Cubre desde la instalacion y descarga de modelos hasta la configuracion del servidor API compatible con OpenAI, pasando por la interfaz de chat, los parametros de generacion y los primeros pasos con el SDK de Python.

El enfoque es progresivo: comienza con la instalacion y el primer modelo, avanza por los formatos de modelo (GGUF, MLX) y la cuantizacion, recorre la interfaz de chat con presets y parametros, introduce la aceleracion GPU, muestra como iniciar el servidor API local y da los primeros pasos con el SDK de Python y la CLI.

Publico objetivo

  • Desarrolladores que quieren experimentar con LLMs en local sin depender de APIs de pago.
  • Usuarios de ChatGPT o Claude que buscan una alternativa local, privada y gratuita.
  • Profesionales IT que necesitan evaluar LM Studio para su adopcion en proyectos de IA.
  • Estudiantes de informatica o ciencia de datos que buscan una introduccion practica a la ejecucion local de LLMs.

Contenido del curso

  • Introduccion: que es LM Studio, por que ejecutar LLMs en local, comparativa con Ollama y alternativas, instalacion multiplataforma y primer uso completo.
  • Modelos locales: formatos GGUF y MLX, niveles de cuantizacion (Q2 a Q8, F16), descubrimiento y descarga de modelos desde Hugging Face.
  • Interfaz de chat: conversacion con system prompts, presets reutilizables y parametros de generacion (temperature, top_p, max_tokens).
  • GPU: configuracion basica de aceleracion GPU con NVIDIA CUDA, Apple Metal y AMD.
  • Servidor API: iniciar el servidor local y usar la API compatible con OpenAI desde cualquier cliente.
  • Python SDK: instalacion del paquete lmstudio y primeras llamadas de chat desde Python.
  • CLI: comandos basicos de lms para gestionar modelos desde terminal.
  • RAG: chat con documentos PDF, DOCX y TXT usando el RAG integrado de LM Studio.

Objetivos de aprendizaje

Al completar este curso, seras capaz de:

  • Instalar LM Studio en tu sistema operativo y entender los requisitos de hardware.
  • Descargar y gestionar modelos desde Hugging Face eligiendo el formato y cuantizacion adecuados.
  • Conversar con LLMs usando la interfaz de chat con presets y parametros personalizados.
  • Configurar la aceleracion GPU para mejorar el rendimiento de inferencia.
  • Iniciar el servidor API compatible con OpenAI y conectar clientes existentes.
  • Usar el SDK de Python para generar texto programaticamente desde tus aplicaciones.
  • Gestionar modelos desde terminal con los comandos basicos de la CLI lms.
  • Chatear con documentos usando el RAG integrado de LM Studio.

Explorar más cursos de programación

Descubre más cursos y hojas de ruta de programación

Alan Sastre - Autor del curso

Alan Sastre

Ingeniero de Software y formador, CEO en CertiDevs

Ingeniero de software especializado en Full Stack y en Inteligencia Artificial. Como CEO de CertiDevs, se dedica a crear hojas de ruta y cursos de programación estructurados. Con más de 15 años programando, 6K seguidores en LinkedIn y experiencia como formador, Alan diseña contenido educativo de calidad para desarrolladores de todos los niveles.