Descripción del curso Ollama
Ollama es la plataforma que permite ejecutar y personalizar modelos de lenguaje grandes en tu propia máquina o en la nube, con un único flujo de trabajo. Ofrece un servidor local, línea de comandos, API REST y una aplicación de escritorio con interfaz de chat e historial, pensada para uso diario sin depender solo de la terminal.
Puedes trabajar en local para mantener el control sobre datos y costes, o usar los modelos alojados en Ollama Cloud cuando necesites más capacidad. La plataforma incluye un amplio catálogo de modelos abiertos (Llama, Gemma, Qwen, Mistral, DeepSeek, GLM y otros) y soporta capacidades avanzadas: razonamiento extendido, llamadas a herramientas, análisis de imágenes, salidas en JSON acotado por schema, búsqueda web como herramienta y embeddings para RAG. El Modelfile permite definir modelos a medida e importar modelos en GGUF o Safetensors desde otros entornos. La API es compatible con OpenAI y Anthropic, de modo que puedes reutilizar clientes y conectarla a LangChain, Claude Code, Cursor o VS Code con poco esfuerzo.
Este itinerario recorre la plataforma de principio a fin: instalación y aplicación de escritorio, gestión de modelos, API REST, capacidades avanzadas, Modelfile e importación, y cierre con integraciones en LangChain, Claude Code e IDEs.
Qué incluye este itinerario
- Introducción: visión de la plataforma, modelos open source, uso en local y en la nube, y arquitectura del sistema.
- Instalación y aplicación de escritorio: instalación en los principales sistemas operativos, servidor y Docker, interfaz de chat y resolución de problemas de hardware y contexto.
- Gestión de modelos: descarga, listado, ejecución y mantenimiento del catálogo desde la línea de comandos.
- API REST: generación, chat, embeddings y uso como backend compatible con OpenAI (y Anthropic para Claude Code).
- Capacidades avanzadas: razonamiento (thinking), herramientas y visión, salidas estructuradas en JSON, búsqueda web y modelos de embeddings.
- Modelfile e importación: definición de modelos a medida e importación de modelos en GGUF, Safetensors y adaptadores.
- Integración: SDK oficial de Ollama en Python, LangChain (langchain-ollama), Claude Code con ollama launch, y configuración en Cursor y VS Code.
Público objetivo
- Desarrolladores y técnicos que quieren ejecutar LLMs en su máquina o combinar uso local con la nube.
- Quienes ya usan OpenAI, LangChain u otros proveedores y buscan una alternativa o complemento.
- Profesionales que quieren explorar modelos abiertos y capacidades como razonamiento, herramientas y visión.
Prerrequisitos: conocimientos básicos de línea de comandos y, para el bloque de integraciones, nociones de Python o JavaScript.
Lecciones y tutoriales de Ollama
Módulos del curso
Explora todos los módulos disponibles en este curso de Ollama
Explorar más tecnologías
Descubre más tecnologías de programación y desarrollo de software
Alan Sastre
Ingeniero de Software y formador, CEO en CertiDevs
Ingeniero de software especializado en Full Stack y en Inteligencia Artificial. Como CEO de CertiDevs, Ollama es una de sus áreas de expertise. Con más de 15 años programando, 6K seguidores en LinkedIn y experiencia como formador, Alan se dedica a crear contenido educativo de calidad para desarrolladores de todos los niveles.