Módulo: Instalación, servidor y aplicación de escritorio
Este módulo forma parte del curso de Ollama. Incluye 4 lecciones .
En este módulo aprenderás a descargar e instalar Ollama en Windows, macOS y Linux, a verificar con ollama --version y a poner en marcha el servidor (ollama serve, puerto 11434), así como a ejecutar Ollama en Docker. Incluye la aplicación de escritorio desde Ollama 0.10: interfaz tipo chatbot con historial y soporte multimodal (archivos, imágenes). También se cubre hardware y troubleshooting: soporte GPU, context length y resolución de problemas habituales (Troubleshooting, Hardware support).
Otros módulos de este curso
Instalación, servidor y aplicación de escritorio
Lecciones de este módulo
Explora todas las lecciones disponibles en Instalación, servidor y aplicación de escritorio
Todos los módulos del curso
Navega entre los módulos de Ollama
Instalación, servidor y aplicación de escritorio
Estás aquíExplora más sobre Ollama
Descubre más recursos de Ollama
Alan Sastre
Ingeniero de Software y formador, CEO en CertiDevs
Ingeniero de software especializado en Full Stack y en Inteligencia Artificial. Como CEO de CertiDevs, Ollama es una de sus áreas de expertise. Con más de 15 años programando, 6K seguidores en LinkedIn y experiencia como formador, Alan se dedica a crear contenido educativo de calidad para desarrolladores de todos los niveles.