Página 1 de 1

🐋 Cómo instalar Ollama en Ubuntu 22.04 (Guía completa)

Publicado: Dom Nov 30, 2025 10:59 am
por Administrador
Ollama es una herramienta que permite ejecutar modelos de IA localmente, como LLaMA, Mistral, Gemma, Qwen, Phi y muchos más.
Funciona sin conexión, es rápido y muy fácil de instalar en Linux.

En este post te dejo una guía paso a paso para instalarlo en Ubuntu 22.04.

📌 1. Actualizar el sistema

Antes de instalar Ollama, asegúrate de tener el sistema actualizado:

sudo apt update && sudo apt upgrade -y


📌 2. Instalar Ollama en Ubuntu

Ollama ofrece un script oficial para Linux.
Simplemente ejecuta:

curl -fsSL https://ollama.com/install.sh | sh


Esto descargará e instalará los componentes necesarios.

📌 3. Verificar que Ollama está funcionando

Una vez instalado, inicia el servicio (si no lo hizo automáticamente):

sudo systemctl start ollama


Y habilítalo para que arranque con el sistema:

sudo systemctl enable ollama


Comprueba el estado:

systemctl status ollama


Deberías ver algo como esto:

📌 4. Descargar tu primer modelo

Por ejemplo, para descargar y ejecutar LLaMA 3:

ollama run llama3


También puedes probar otros modelos:

ollama pull mistral
ollama pull gemma
ollama pull qwen


📌 5. Ejecutar un modelo

Ejecutar un chat:

ollama run mistral


Ejemplo:

>>> Hola, ¿qué puedes hacer?


📌 6. Usar Ollama como API local

Ollama crea un endpoint local tipo OpenAI compatible.
Puedes usarlo con cualquier cliente:

curl http://localhost:11434/api/generate -d '{
"model": "mistral",
"prompt": "Dime un dato interesante."
}'


Esto es ideal para integrarlo en apps, webs, Home Assistant y más.

📌 7. Desinstalar Ollama (si te hace falta)

Si quieres quitarlo:

sudo systemctl stop ollama
sudo systemctl disable ollama
sudo rm -rf /usr/share/ollama /usr/bin/ollama ~/.ollama

🎉 ¡Listo!

Ollama debería estar funcionando perfectamente en tu Ubuntu 22.04 y ya puedes correr modelos de IA de forma local, sin límites, sin internet y sin costos.