Instalador Stack IA para Servidores Dedicados con GPU

Soporte Donweb
Soporte Donweb
  • Actualización
📌 Nota Este instalador es completamente opcional. Está orientado a usuarios que prefieren una forma guiada y sencilla de activar herramientas de IA en su servidor. Si ya tenés experiencia con Docker, Ollama u otras herramientas, podés instalar lo que necesites por tu cuenta sin usar este asistente.

1. Para quién es esta herramienta

AI Stack Installer está pensado para usuarios que reciben un servidor con GPU ya listo y quieren activar de forma rápida y sencilla un entorno de Inteligencia Artificial para correr modelos de lenguaje (LLMs).

Qué viene preinstalado en el servidor

El servidor se entrega con la siguiente base ya configurada:

  • Ubuntu 24.04 LTS como sistema operativo.
  • Drivers NVIDIA, CUDA, cuDNN y NCCL listos para usar (la GPU ya funciona).
  • Acceso por SSH como usuario root.
  • Un dominio predeterminado del tipo sd-xxxxxxx-l.dattaweb.com que apunta al servidor.

El instalador ai-stack parte de esta base y agrega las aplicaciones de IA por encima. No hace falta ser experto en servidores — el instalador se encarga de las partes complicadas: instala lo necesario, configura la red, protege los servicios y permite deshacer todo si se quiere volver atrás.

2. Qué incluye el stack

ComponenteQué haceBeneficio
runtime
Instala Docker y las herramientas para que los contenedores usen la GPU.
Base necesaria para correr los demás servicios.
ollama
Motor de IA que ejecuta modelos de lenguaje en la GPU del servidor.
Permite generar texto con modelos como Llama localmente, sin depender de servicios externos.
model-demo
Descarga un modelo de ejemplo (llama3.2:3b por defecto). Podés solicitar otro durante la instalación. Ver opciones disponibles.
Tener un modelo listo para usar apenas termina la instalación.
open-webui
Interfaz web tipo chat para interactuar con los modelos de Ollama. También permite descargar modelos desde la interfaz.
Chatear con la IA desde el navegador sin usar la terminal. Gestionar modelos de forma visual.
caddy
Puerta de entrada web con certificado de seguridad (HTTPS) automático.
Acceder al chat y a la API desde internet de forma segura, con usuario y contraseña.
monitor-basic
Herramienta de terminal (nvitop) que muestra el uso de la GPU en tiempo real.
Ver cuánta memoria y procesamiento usa la GPU — útil para saber si el servidor está saturado.

3. Cómo instalar

Requisitos previos

  • Servidor con Ubuntu 24.04 LTS.
  • GPU NVIDIA con drivers instalados (el comando nvidia-smi debe responder).
  • Conexión a internet.

Pasos previos

Ingresá a la consola vía SSH como usuario root y posicionarte en /root:

bash
cd /root

Instalación rápida (perfil recomendado)

Instala todo lo necesario para tener el chat con IA funcionando. El instalador detecta automáticamente el dominio del servidor:

bash
ai-stack install --profile recommended

Si se quiere usar un dominio propio en lugar del predeterminado:

bash
ai-stack install --profile recommended --hostname ia.miempresa.com

Instalación eligiendo componentes

Si solo se necesitan algunos componentes:

bash
ai-stack install --components runtime,ollama,open-webui
💡 Dependencias automáticas El instalador agrega automáticamente las dependencias necesarias. Por ejemplo, si se pide open-webui, también se instala runtime y ollama.

Instalación con monitoreo de GPU

bash
ai-stack install --profile recommended --with-monitor-basic

Agregar componentes después de instalar

Si el stack ya está instalado y se quiere agregar algo más adelante, ejecutar install con el componente deseado. Por ejemplo, para agregar monitoreo:

bash
ai-stack install --components monitor-basic

El instalador detecta lo que ya está instalado y solo agrega lo nuevo.

4. Comandos y opciones

install — Instalar componentes

bash
ai-stack install [opciones]
Opción Para qué sirve
--profile recommended Instala el paquete completo: runtime + caddy + ollama + modelo + open-webui.
--components runtime,ollama,... Elegir manualmente qué componentes instalar (separados por coma).
--hostname miservidor.ejemplo.com Opcional. Indicar un dominio propio para HTTPS. Si no se indica, usa el dominio predeterminado del servidor.
--model nombre-del-modelo Cambiar el modelo que se descarga (por defecto: llama3.2:3b).
--skip-model-download No descargar ningún modelo durante la instalación.
--with-monitor-basic Incluir la herramienta de monitoreo de GPU.
--allow-degraded-recommended Continuar la instalación aunque el dominio o certificado no esté listo (se instala todo menos Caddy).

status — Ver el estado del sistema

bash
ai-stack status [opciones]
Opción Para qué sirve
(sin opciones) Muestra un resumen legible de todos los componentes y si están funcionando.
--json Muestra la información en formato JSON (útil para integrar con otras herramientas).
--show-credentials Muestra el usuario y contraseña de acceso web generados en la instalación.

remove — Quitar componentes

bash
ai-stack remove --components open-webui [opciones]
Opción Para qué sirve
--components nombre1,nombre2 Qué componentes quitar (separados por coma).
--purge-data También borrar los datos guardados (volúmenes de Docker). Sin esto, los datos se conservan.

reset — Quitar todo

bash
ai-stack reset [opciones]
Opción Para qué sirve
--purge-data Borrar también los datos de los contenedores.
--purge-models yes Borrar los modelos de IA descargados.
--purge-models no Conservar los modelos descargados (útil para reinstalar sin volver a descargarlos).
ℹ️ Importante reset nunca toca los drivers NVIDIA ni la configuración base del servidor.

help — Ver la ayuda

bash
ai-stack help

Opciones globales

Se pueden combinar con cualquier comando:

Opción Para qué sirve
--yes Responder "sí" automáticamente a todas las preguntas de confirmación.
--non-interactive Modo automático: si hay algo que preguntar, falla en lugar de esperar respuesta. Útil para automatizaciones.
--verbose Mostrar información detallada de lo que está haciendo (útil si algo falla).
--dry-run Simular la operación sin hacer cambios reales (para verificar qué haría).

5. Dominio y acceso seguro (HTTPS)

Qué es y por qué importa

Cuando se instala Caddy (incluido en el perfil recomendado), el servidor queda accesible desde internet con HTTPS. La conexión entre el navegador y el servidor viaja cifrada y se necesita usuario/contraseña para entrar.

Si no tengo un dominio propio

No hace falta. El servidor ya viene con un dominio predeterminado del tipo sd-xxxxxxx-l.dattaweb.com que apunta automáticamente a la IP del servidor. Si no se indica un dominio con --hostname, el instalador usa este dominio predeterminado. Es automático, no hay que hacer nada extra.

Usar un dominio o subdominio propio (opcional)

Si se prefiere usar un dominio personalizado (por ejemplo, ia.miempresa.com), debe cumplir todas estas condiciones:

  1. Tener un dominio o subdominio real registrado (por ejemplo, ia.miempresa.com).
  2. Crear un registro DNS de tipo A que apunte a la IP pública del servidor.
  3. Esperar a que el DNS se propague (puede tardar minutos o varias horas).
    Verificar con:

    nslookup ia.miempresa.com

    Debe devolver la IP del servidor.

  4. Los puertos 80 y 443 deben estar abiertos en el firewall para que el certificado se genere.
  5. No usar dominios locales como .local, .internal, .test o .example — no funcionan con certificados reales.

Luego indicarlo al instalar:

ai-stack install --profile recommended --hostname ia.miempresa.com

Si el dominio propio no está listo todavía

bash
# Instalar sin requerir dominio propio (usa el predeterminado)
ai-stack install --profile recommended

# O instalar sin Caddy si el dominio predeterminado tampoco está disponible
ai-stack install --profile recommended --allow-degraded-recommended

# Más adelante, cuando el dominio propio esté listo, agregar Caddy
ai-stack install --components caddy --hostname ia.miempresa.com

Dónde encontrar las credenciales de acceso

El instalador genera automáticamente un usuario y contraseña de Basic Auth al instalar Caddy. Para verlos:

bash
ai-stack status --show-credentials
ℹ️ Nota Estas credenciales no protegen la API de Ollama ni la interfaz de Open WebUI, ya que tienen sus propios sistemas de autenticación.

6. Primeros pasos con los componentes

Usar Open WebUI (el chat web)

  1. Luego de instalar, abrir el navegador y visitar https://miservidor.midominio.com.
  2. Crear el usuario administrador de inmediato. La primera persona que ingresa a Open WebUI crea la cuenta de administrador. Hacerlo cuanto antes para evitar que otra persona lo haga primero.
  3. En la pantalla de chat, elegir el modelo (aparecerá llama3.2:3b si se instaló el modelo demo).
  4. Escribir un mensaje y la IA responderá.
  5. Descargar más modelos: desde Open WebUI se pueden buscar y descargar modelos adicionales sin usar la terminal. Ir a la sección de configuración de modelos dentro de la interfaz.

Usar Ollama directamente (sin interfaz web)

Ollama funciona también desde la terminal del servidor:

bash
# Chatear con un modelo
ollama run llama3.2:3b

# Descargar otro modelo
ollama pull mistral

# Ver los modelos descargados
ollama list

# Hacer una consulta por API (desde el servidor)
curl http://127.0.0.1:11434/api/generate -d '{"model":"llama3.2:3b","prompt":"Hola, cómo estás?"}'
💡 Salir del chat Para salir del chat de Ollama, escribir /bye o presionar Ctrl+D.

Usar Ollama desde el navegador (sin Open WebUI)

Si se instaló Ollama y Caddy pero no Open WebUI, Caddy expone la API en:

url
https://miservidor.midominio.com/ollama/

Protección con API Key: la API de Ollama está protegida por una API Key (Bearer token) generada automáticamente durante la instalación. Toda solicitud debe incluir el header Authorization. Sin este header, Caddy responde con error 401 Unauthorized.

Para obtener la API Key:

bash
# Se muestra al finalizar la instalación. Para recuperarla después:
ai-stack status --show-credentials

También se puede consultar directamente en el archivo de configuración de Caddy:

bash
cat /opt/donweb/ai-stack/env/caddy.env | grep API_KEY

Ejemplos de uso con la API Key:

bash
# Ver los modelos disponibles
curl -H "Authorization: Bearer TU_API_KEY" https://miservidor.midominio.com/ollama/api/tags

# Hacer una consulta a un modelo
curl -H "Authorization: Bearer TU_API_KEY" https://miservidor.midominio.com/ollama/api/generate \
  -d '{"model": "llama3.2:3b", "prompt": "Hola, ¿cómo estás?"}'
⚠️ Cambiar la API Key Editar el valor de AI_STACK_CADDY_OLLAMA_API_KEY en /opt/donweb/ai-stack/env/caddy.env y reinstalar con ai-stack install para aplicar el cambio. La protección por API Key solo aplica cuando Ollama está instalado sin Open WebUI.

Usar el monitoreo de GPU

Si se instaló monitor-basic:

bash
/opt/donweb/ai-stack/venvs/monitor-basic/bin/nvitop

Muestra en tiempo real: porcentaje de uso de la GPU, memoria usada y disponible, temperatura, y qué procesos están usando la GPU.

💡 Salir Para salir del monitor, presionar q.

7. Solución de problemas

La instalación falla al inicio

  • "nvidia-smi no encontrado": los drivers de la GPU no están instalados o no funcionan. Contactar al proveedor del servidor.
  • "Sistema operativo no soportado": el instalador solo funciona en Ubuntu 24.04 LTS.

No puedo acceder a Open WebUI desde el navegador

  • Con Caddy: verificar que el dominio apunte a la IP correcta con nslookup midominio.com y que los puertos 80 y 443 estén abiertos.
  • Ver los registros del contenedor:

    bash
    docker logs ai-stack-open-webui

El certificado HTTPS no se genera

  • El dominio no apunta a la IP del servidor.
  • Los puertos 80/443 están bloqueados.
  • Se usó un dominio no válido (.local, .test, etc.).
  • Ejecutar ai-stack status para ver el estado de Caddy.

Ollama no responde

bash
# Verificar que el servicio esté corriendo
systemctl status ollama

# Ver los registros
journalctl -u ollama -n 50

# Probar la conexión
curl http://127.0.0.1:11434/api/tags

Open WebUI dice que no puede conectar con Ollama

  • Verificar que Ollama esté corriendo: systemctl status ollama
  • Reiniciar Open WebUI:

    bash
    docker restart ai-stack-open-webui

Quiero empezar de cero

bash
# Quitar todo, incluyendo modelos descargados
ai-stack reset --purge-data --purge-models yes

# Volver a instalar
ai-stack install --profile recommended --hostname miservidor.midominio.com

Ver el registro de lo que hizo el instalador

bash
cat /opt/donweb/ai-stack/logs/ai-stack.log

Verificar el estado general

bash
ai-stack status

Muestra de un vistazo qué componentes están instalados, cuáles funcionan correctamente y las direcciones para acceder a cada servicio.

Relacionada con

¿Fue útil este artículo?

Usuarios a los que les pareció útil: 0 de 0

¿Tiene más preguntas? Enviar una solicitud

Comentarios

0 comentarios

El artículo está cerrado para comentarios.