Curso Ollama

Domina la plataforma Ollama: modelos locales y en la nube, API, capacidades avanzadas e integraciones con tu stack

Certificado profesional
Ollama
Ollama
Plataforma
10 horas
7 módulos
26 lecciones
Ollama
Documentación oficial
Actualizado: 27/03/2026

¡Desbloquea el curso completo!

IA
Ejercicios
Certificado
Entrar

Descripción del curso Ollama

Ollama es la plataforma que permite ejecutar y personalizar modelos de lenguaje grandes en tu propia máquina o en la nube, con un único flujo de trabajo. Ofrece un servidor local, línea de comandos, API REST y una aplicación de escritorio con interfaz de chat e historial, pensada para uso diario sin depender solo de la terminal.

Puedes trabajar en local para mantener el control sobre datos y costes, o usar los modelos alojados en Ollama Cloud cuando necesites más capacidad. La plataforma incluye un amplio catálogo de modelos abiertos (Llama, Gemma, Qwen, Mistral, DeepSeek, GLM y otros) y soporta capacidades avanzadas: razonamiento extendido, llamadas a herramientas, análisis de imágenes, salidas en JSON acotado por schema, búsqueda web como herramienta y embeddings para RAG. El Modelfile permite definir modelos a medida e importar modelos en GGUF o Safetensors desde otros entornos. La API es compatible con OpenAI y Anthropic, de modo que puedes reutilizar clientes y conectarla a LangChain, Claude Code, Cursor o VS Code con poco esfuerzo.

Este itinerario recorre la plataforma de principio a fin: instalación y aplicación de escritorio, gestión de modelos, API REST, capacidades avanzadas, Modelfile e importación, y cierre con integraciones en LangChain, Claude Code e IDEs.

Qué incluye este itinerario

  • Introducción: visión de la plataforma, modelos open source, uso en local y en la nube, y arquitectura del sistema.
  • Instalación y aplicación de escritorio: instalación en los principales sistemas operativos, servidor y Docker, interfaz de chat y resolución de problemas de hardware y contexto.
  • Gestión de modelos: descarga, listado, ejecución y mantenimiento del catálogo desde la línea de comandos.
  • API REST: generación, chat, embeddings y uso como backend compatible con OpenAI (y Anthropic para Claude Code).
  • Capacidades avanzadas: razonamiento (thinking), herramientas y visión, salidas estructuradas en JSON, búsqueda web y modelos de embeddings.
  • Modelfile e importación: definición de modelos a medida e importación de modelos en GGUF, Safetensors y adaptadores.
  • Integración: SDK oficial de Ollama en Python, LangChain (langchain-ollama), Claude Code con ollama launch, y configuración en Cursor y VS Code.

Público objetivo

  • Desarrolladores y técnicos que quieren ejecutar LLMs en su máquina o combinar uso local con la nube.
  • Quienes ya usan OpenAI, LangChain u otros proveedores y buscan una alternativa o complemento.
  • Profesionales que quieren explorar modelos abiertos y capacidades como razonamiento, herramientas y visión.

Prerrequisitos: conocimientos básicos de línea de comandos y, para el bloque de integraciones, nociones de Python o JavaScript.

Lecciones y tutoriales de Ollama

Explorar más tecnologías

Descubre más tecnologías de programación y desarrollo de software

Alan Sastre - Autor del curso

Alan Sastre

Ingeniero de Software y formador, CEO en CertiDevs

Ingeniero de software especializado en Full Stack y en Inteligencia Artificial. Como CEO de CertiDevs, Ollama es una de sus áreas de expertise. Con más de 15 años programando, 6K seguidores en LinkedIn y experiencia como formador, Alan se dedica a crear contenido educativo de calidad para desarrolladores de todos los niveles.