Ollama Cloud: cuenta, autenticación y modelos en la nube

Básico
Ollama
Ollama
Actualizado: 27/03/2026

Qué es Ollama Cloud

Ollama Cloud es el servicio en la nube de Ollama: los modelos se ejecutan en servidores gestionados por Ollama, no en tu máquina. Resulta útil cuando no tienes GPU o RAM suficiente para el modelo que quieres usar, cuando prefieres no administrar infraestructura o cuando quieres probar modelos grandes sin descargarlos.

Desde el punto de vista del usuario, la CLI y la API se usan igual que en local. La diferencia está en que indicas que quieres usar un modelo en la nube añadiendo el sufijo :cloud al nombre del modelo (por ejemplo, qwen3.5:cloud o llama3.2:cloud). Para que eso funcione, necesitas una cuenta y estar autenticado.

flowchart LR
    A["Crear cuenta<br/>en ollama.com"] --> B["ollama signin<br/>en la terminal"]
    B --> C["CLI vinculada<br/>a tu cuenta"]
    C --> D{"¿Uso desde código?"}
    D -->|"Sí"| E["Generar API key<br/>en ollama.com"]
    D -->|"No (solo CLI)"| F["ollama run<br/>modelo:cloud"]
    E --> G["Header Authorization<br/>Bearer API_KEY"]

Crear cuenta e iniciar sesión

Para usar Ollama Cloud debes tener una cuenta en el servicio. Puedes crearla desde la web de Ollama o durante el primer uso de la función de nube.

Una vez tengas cuenta, la autenticación desde la terminal se hace con:

ollama signin

Este comando abre el navegador (o te muestra un enlace si no puede abrirlo) para que inicies sesión con tu cuenta. Tras completar el proceso, la CLI queda asociada a tu usuario y podrás usar modelos con el sufijo :cloud sin tener que repetir el login en cada comando.

En el navegador suele mostrarse un flujo para vincular la CLI con tu cuenta: inicio de sesión, conexión del dispositivo y confirmación.

Pantalla de inicio de sesión en ollama.com antes de autenticarte

Conectar el dispositivo (CLI) con tu cuenta de Ollama

Confirmación de que el dispositivo se conectó correctamente

Tras completar el inicio de sesión en el navegador

Si trabajas en un entorno sin navegador (por ejemplo, un servidor remoto), el flujo puede incluir enlaces o códigos que debes completar en otro dispositivo. Consulta la documentación oficial de Ollama para los detalles según tu versión.

API key para programas y servicios

Cuando quieres que una aplicación o un script use Ollama Cloud (por ejemplo, llamando a la API REST desde tu código), no puedes depender del login interactivo. En ese caso se usa una API key.

La API key se genera desde la configuración de tu cuenta en el sitio de Ollama. Es un token secreto que identifica y autoriza las peticiones a los modelos en la nube. Debes tratarla como una contraseña: no la incluyas en el código que subes a un repositorio ni la compartas.

Sección de API keys en la cuenta de ollama.com

En las peticiones a la API de Ollama Cloud sueles enviar la API key en un header de autenticación (por ejemplo, Authorization: Bearer <tu-api-key>). Así los clientes (navegador, Postman, tu aplicación) pueden usar modelos remotos sin tener que ejecutar ollama signin en esa máquina.

La autenticación en la nube en llamadas desde código o desde clientes HTTP se hace enviando esa API key en el header de autorización correspondiente.

Uso del sufijo :cloud

En la línea de comandos, cuando quieres usar un modelo que está en la nube en lugar del modelo local, añades :cloud al nombre del modelo.

Ejemplos:

  • qwen3.5:cloud: usa la familia Qwen 3.5 en los servidores de Ollama Cloud.
  • llama3.2:cloud: usa Llama 3.2 en la nube.

Si escribieras solo llama3.2, Ollama usaría el modelo local (si lo tienes descargado). El sufijo :cloud es lo que indica que la ejecución debe hacerse en la nube. El resto de la interacción (chat, generación, parámetros) es conceptualmente igual, y solo cambia dónde corre el modelo.

Esto permite mezclar en el mismo flujo de trabajo modelos locales y en la nube: unos los tienes en disco y otros los ejecutas vía Ollama Cloud según necesidad y recursos.

Desactivar el uso de la nube

En algunos entornos (empresa, compliance, redes aisladas) puede requerirse que la aplicación nunca intente conectar con Ollama Cloud. Para eso existe la variable de entorno OLLAMA_NO_CLOUD.

Si defines OLLAMA_NO_CLOUD=1 (o un valor considerado "truthy" por tu sistema), Ollama no usará los servicios en la nube. Las peticiones a modelos con sufijo :cloud fallarán o no se enviarán a los servidores remotos, según el diseño del cliente. Así te aseguras de que todo el tráfico quede en local.

Ejemplo en Linux/macOS:

export OLLAMA_NO_CLOUD=1
ollama run llama3.2

En Windows (PowerShell):

$env:OLLAMA_NO_CLOUD = "1"
ollama run llama3.2

En la documentación de Ollama se menciona también la opción disable_ollama_cloud en el archivo de configuración del servidor (por ejemplo en ~/.ollama/server.json) para desactivar la nube de forma persistente en esa instalación. Si necesitas una política fija en una máquina, revisa la documentación actual de tu versión para el nombre exacto del parámetro y la ruta del fichero.

Cuándo usar Cloud y cuándo no

Ollama Cloud compensa cuando:

  • No tienes hardware suficiente para el modelo que necesitas.
  • Quieres probar modelos grandes sin descargarlos.
  • Prefieres no gestionar actualizaciones ni servidores.

Mantener todo en local (y usar OLLAMA_NO_CLOUD si hace falta) compensa cuando:

  • Los datos no pueden salir de tu red.
  • Necesitas trabajar sin conexión a internet.
  • La política de tu organización exige que no se use ningún servicio externo para inferencia.

Con una cuenta, ollama signin y, si aplica, una API key, puedes usar modelos en Ollama Cloud añadiendo :cloud al nombre del modelo. Con OLLAMA_NO_CLOUD o la opción equivalente en la configuración del servidor puedes garantizar que solo se use la instalación local.

Alan Sastre - Autor del tutorial

Alan Sastre

Ingeniero de Software y formador, CEO en CertiDevs

Ingeniero de software especializado en Full Stack y en Inteligencia Artificial. Como CEO de CertiDevs, Ollama es una de sus áreas de expertise. Con más de 15 años programando, 6K seguidores en LinkedIn y experiencia como formador, Alan se dedica a crear contenido educativo de calidad para desarrolladores de todos los niveles.

Más tutoriales de Ollama

Explora más contenido relacionado con Ollama y continúa aprendiendo con nuestros tutoriales gratuitos.

Aprendizajes de esta lección

Configurar una cuenta en Ollama Cloud, autenticarte con ollama signin, obtener una API key y usar el sufijo :cloud para ejecutar modelos remotos, y desactivar cloud cuando haga falta.

Cursos que incluyen esta lección

Esta lección forma parte de los siguientes cursos estructurados con rutas de aprendizaje