Curso Ollama: modelos LLM en local y en la nube

Domina Ollama: modelos locales y en la nube, API, capacidades avanzadas e integraciones con tu stack favorito

Certificado profesional
Curso de programación
10 horas
Básico
Actualizado: 27/03/2026

¡Desbloquea el curso completo!

Asistente IA
Ejercicios código
Certificado
Empezar curso

Curso Ollama: modelos LLM en local y en la nube con certificado

Ollama se ha convertido en la referencia para llevar modelos de lenguaje grandes a tu propio equipo o a la nube sin depender de un único proveedor. Este curso recoge el temario completo: todas las lecciones, evaluaciones por módulo (tests, puzzles y prácticas de código) y un test final integrador.

Aprenderás a trabajar tanto en local —con total control sobre privacidad y costes— como con los modelos alojados en Ollama Cloud cuando necesites más capacidad o no quieras gestionar hardware. La aplicación de escritorio te permite chatear con los modelos, mantener historial y usar contenido multimodal sin tocar la terminal. En paralelo, la línea de comandos y la API REST te dan el control que necesitas para automatizar flujos, construir aplicaciones y conectar Ollama con LangChain, Claude Code, Cursor o VS Code.

El itinerario cubre también las capacidades más avanzadas: modelos con razonamiento extendido (thinking), llamadas a herramientas, visión sobre imágenes, salidas estructuradas en JSON, búsqueda web como herramienta y modelos de embeddings para RAG. Por último, el Modelfile y la importación de modelos te permiten adaptar comportamientos y traer a Ollama modelos en GGUF o Safetensors desde otros entornos.

Público objetivo

  • Desarrolladores y técnicos que quieren usar LLMs en su máquina por privacidad, coste o trabajo sin conexión, o combinar uso local con la nube.
  • Quienes ya trabajan con OpenAI, LangChain u otros proveedores y buscan una alternativa o complemento local.
  • Profesionales que quieren experimentar con modelos abiertos (Llama, Gemma, Qwen, Mistral, etc.) y con capacidades como razonamiento, herramientas y visión.

Contenido del curso

Introducción a Ollama

Visión general de la plataforma: qué resuelve, ventajas de ejecutar modelos en local frente a la nube y cuándo compensa usar Ollama Cloud. Panorama de modelos open source (Qwen, Llama, Gemma, Mistral y otros) y criterios para elegir. Configuración de cuenta y autenticación en la nube, uso de modelos remotos y opciones para entornos que requieren solo ejecución local. Arquitectura del sistema: servidor, registro de modelos, CLI y API.

Instalación, servidor y aplicación de escritorio

Instalación en Windows, macOS y Linux y comprobación del entorno. Puesta en marcha del servidor y despliegue en Docker cuando sea necesario. Uso de la aplicación de escritorio: interfaz de chat, historial de conversaciones y soporte para archivos e imágenes. Requisitos de hardware, gestión del contexto y resolución de problemas frecuentes.

Gestión de modelos con la CLI

Descarga y listado de modelos, variantes y etiquetas. Ejecución interactiva en terminal y parámetros básicos. Control de procesos en ejecución y mantenimiento del catálogo local (liberar memoria, eliminar o duplicar modelos).

API REST

Uso de la API para generación de texto y conversación, con y sin streaming, y parámetros principales. Generación de embeddings para RAG y búsqueda semántica. Uso de Ollama como backend compatible con la API de OpenAI desde clientes y librerías existentes, en local o con API key en la nube.

Capacidades avanzadas de los modelos

Modelos con razonamiento extendido (thinking) y cómo aprovecharlos. Llamadas a herramientas y análisis de imágenes (vision): qué modelos lo soportan y casos de uso. Obtención de respuestas en formato JSON acotado por schema. Búsqueda web como herramienta para información actual. Modelos de embeddings: elección, dimensiones y buenas prácticas para RAG.

Modelfile y modelos personalizados

Sintaxis del Modelfile: base, parámetros, prompt de sistema, plantillas y adaptadores. Creación de modelos a medida y buenas prácticas. Importación de modelos en formato GGUF, Safetensors y adaptadores desde otros entornos, con opciones de cuantización.

Integración con aplicaciones e IDEs

Uso del SDK oficial de Ollama en Python: chat, generate, embeddings y streaming desde código. Integración con LangChain: chat, embeddings, cadenas y patrones RAG. Configuración y lanzamiento de Claude Code con Ollama como backend, incluyendo modelos en la nube. Test final del curso que integra los conceptos vistos.

Objetivos de aprendizaje

Al completar este roadmap serás capaz de:

  • Instalar y poner en marcha Ollama en tu sistema y utilizar la aplicación de escritorio con soltura.
  • Configurar y usar Ollama Cloud cuando necesites modelos más grandes o no dispongas de hardware local.
  • Gestionar el ciclo de vida de los modelos desde la línea de comandos (descarga, ejecución, liberación de recursos).
  • Consumir la API para generación, chat y embeddings desde tu código o desde herramientas externas.
  • Aprovechar las capacidades avanzadas (razonamiento, herramientas, visión, salidas estructuradas, búsqueda web y embeddings) según el caso de uso.
  • Conectar Ollama como backend compatible con OpenAI desde clientes y frameworks habituales.
  • Definir modelos personalizados con Modelfile e importar modelos en GGUF o Safetensors.
  • Integrar Ollama con Claude Code, LangChain y el SDK oficial en Python; y superar el test final del curso.
  • Completar todas las evaluaciones del itinerario: un examen o práctica por módulo más el test global integrador.

Explorar más cursos de programación

Descubre más cursos y hojas de ruta de programación

Alan Sastre - Autor del curso

Alan Sastre

Ingeniero de Software y formador, CEO en CertiDevs

Ingeniero de software especializado en Full Stack y en Inteligencia Artificial. Como CEO de CertiDevs, se dedica a crear hojas de ruta y cursos de programación estructurados. Con más de 15 años programando, 6K seguidores en LinkedIn y experiencia como formador, Alan diseña contenido educativo de calidad para desarrolladores de todos los niveles.