Contenido
1. Para quién es esta herramienta
AI Stack Installer está pensado para usuarios que reciben un servidor con GPU ya listo y quieren activar de forma rápida y sencilla un entorno de Inteligencia Artificial para correr modelos de lenguaje (LLMs).
Qué viene preinstalado en el servidor
El servidor se entrega con la siguiente base ya configurada:
- Ubuntu 24.04 LTS como sistema operativo.
- Drivers NVIDIA, CUDA, cuDNN y NCCL listos para usar (la GPU ya funciona).
- Acceso por SSH como usuario root.
- Un dominio predeterminado del tipo
sd-xxxxxxx-l.dattaweb.comque apunta al servidor.
El instalador ai-stack parte de esta base y agrega las aplicaciones de IA por encima. No hace falta ser experto en servidores — el instalador se encarga de las partes complicadas: instala lo necesario, configura la red, protege los servicios y permite deshacer todo si se quiere volver atrás.
2. Qué incluye el stack
llama3.2:3b por defecto). Podés solicitar otro durante la instalación. Ver opciones disponibles.nvitop) que muestra el uso de la GPU en tiempo real.3. Cómo instalar
Requisitos previos
- Servidor con Ubuntu 24.04 LTS.
-
GPU NVIDIA con drivers instalados (el comando
nvidia-smidebe responder). - Conexión a internet.
Pasos previos
Ingresá a la consola vía SSH como usuario root y posicionarte en /root:
cd /root
Instalación rápida (perfil recomendado)
Instala todo lo necesario para tener el chat con IA funcionando. El instalador detecta automáticamente el dominio del servidor:
ai-stack install --profile recommended
Si se quiere usar un dominio propio en lugar del predeterminado:
ai-stack install --profile recommended --hostname ia.miempresa.com
Instalación eligiendo componentes
Si solo se necesitan algunos componentes:
ai-stack install --components runtime,ollama,open-webui
open-webui, también se instala runtime y ollama.Instalación con monitoreo de GPU
ai-stack install --profile recommended --with-monitor-basic
Agregar componentes después de instalar
Si el stack ya está instalado y se quiere agregar algo más adelante, ejecutar install con el componente deseado. Por ejemplo, para agregar monitoreo:
ai-stack install --components monitor-basic
El instalador detecta lo que ya está instalado y solo agrega lo nuevo.
4. Comandos y opciones
install — Instalar componentes
ai-stack install [opciones]
| Opción | Para qué sirve |
|---|---|
| --profile recommended | Instala el paquete completo: runtime + caddy + ollama + modelo + open-webui. |
| --components runtime,ollama,... | Elegir manualmente qué componentes instalar (separados por coma). |
| --hostname miservidor.ejemplo.com | Opcional. Indicar un dominio propio para HTTPS. Si no se indica, usa el dominio predeterminado del servidor. |
| --model nombre-del-modelo | Cambiar el modelo que se descarga (por defecto: llama3.2:3b). |
| --skip-model-download | No descargar ningún modelo durante la instalación. |
| --with-monitor-basic | Incluir la herramienta de monitoreo de GPU. |
| --allow-degraded-recommended | Continuar la instalación aunque el dominio o certificado no esté listo (se instala todo menos Caddy). |
status — Ver el estado del sistema
ai-stack status [opciones]
| Opción | Para qué sirve |
|---|---|
| (sin opciones) | Muestra un resumen legible de todos los componentes y si están funcionando. |
| --json | Muestra la información en formato JSON (útil para integrar con otras herramientas). |
| --show-credentials | Muestra el usuario y contraseña de acceso web generados en la instalación. |
remove — Quitar componentes
ai-stack remove --components open-webui [opciones]
| Opción | Para qué sirve |
|---|---|
| --components nombre1,nombre2 | Qué componentes quitar (separados por coma). |
| --purge-data | También borrar los datos guardados (volúmenes de Docker). Sin esto, los datos se conservan. |
reset — Quitar todo
ai-stack reset [opciones]
| Opción | Para qué sirve |
|---|---|
| --purge-data | Borrar también los datos de los contenedores. |
| --purge-models yes | Borrar los modelos de IA descargados. |
| --purge-models no | Conservar los modelos descargados (útil para reinstalar sin volver a descargarlos). |
reset nunca toca los drivers NVIDIA ni la configuración base del servidor.
help — Ver la ayuda
ai-stack help
Opciones globales
Se pueden combinar con cualquier comando:
| Opción | Para qué sirve |
|---|---|
| --yes | Responder "sí" automáticamente a todas las preguntas de confirmación. |
| --non-interactive | Modo automático: si hay algo que preguntar, falla en lugar de esperar respuesta. Útil para automatizaciones. |
| --verbose | Mostrar información detallada de lo que está haciendo (útil si algo falla). |
| --dry-run | Simular la operación sin hacer cambios reales (para verificar qué haría). |
5. Dominio y acceso seguro (HTTPS)
Qué es y por qué importa
Cuando se instala Caddy (incluido en el perfil recomendado), el servidor queda accesible desde internet con HTTPS. La conexión entre el navegador y el servidor viaja cifrada y se necesita usuario/contraseña para entrar.
Si no tengo un dominio propio
No hace falta. El servidor ya viene con un dominio predeterminado del tipo sd-xxxxxxx-l.dattaweb.com que apunta automáticamente a la IP del servidor. Si no se indica un dominio con --hostname, el instalador usa este dominio predeterminado. Es automático, no hay que hacer nada extra.
Usar un dominio o subdominio propio (opcional)
Si se prefiere usar un dominio personalizado (por ejemplo, ia.miempresa.com), debe cumplir todas estas condiciones:
- Tener un dominio o subdominio real registrado (por ejemplo,
ia.miempresa.com). - Crear un registro DNS de tipo A que apunte a la IP pública del servidor.
Esperar a que el DNS se propague (puede tardar minutos o varias horas).
Verificar con:nslookup ia.miempresa.com
Debe devolver la IP del servidor.
- Los puertos 80 y 443 deben estar abiertos en el firewall para que el certificado se genere.
- No usar dominios locales como
.local,.internal,.testo.example— no funcionan con certificados reales.
Luego indicarlo al instalar:
ai-stack install --profile recommended --hostname ia.miempresa.com
Si el dominio propio no está listo todavía
# Instalar sin requerir dominio propio (usa el predeterminado) ai-stack install --profile recommended # O instalar sin Caddy si el dominio predeterminado tampoco está disponible ai-stack install --profile recommended --allow-degraded-recommended # Más adelante, cuando el dominio propio esté listo, agregar Caddy ai-stack install --components caddy --hostname ia.miempresa.com
Dónde encontrar las credenciales de acceso
El instalador genera automáticamente un usuario y contraseña de Basic Auth al instalar Caddy. Para verlos:
ai-stack status --show-credentials
6. Primeros pasos con los componentes
Usar Open WebUI (el chat web)
- Luego de instalar, abrir el navegador y visitar
https://miservidor.midominio.com. - Crear el usuario administrador de inmediato. La primera persona que ingresa a Open WebUI crea la cuenta de administrador. Hacerlo cuanto antes para evitar que otra persona lo haga primero.
- En la pantalla de chat, elegir el modelo (aparecerá
llama3.2:3bsi se instaló el modelo demo). - Escribir un mensaje y la IA responderá.
- Descargar más modelos: desde Open WebUI se pueden buscar y descargar modelos adicionales sin usar la terminal. Ir a la sección de configuración de modelos dentro de la interfaz.
Usar Ollama directamente (sin interfaz web)
Ollama funciona también desde la terminal del servidor:
# Chatear con un modelo ollama run llama3.2:3b # Descargar otro modelo ollama pull mistral # Ver los modelos descargados ollama list # Hacer una consulta por API (desde el servidor) curl http://127.0.0.1:11434/api/generate -d '{"model":"llama3.2:3b","prompt":"Hola, cómo estás?"}'
/bye o presionar Ctrl+D.Usar Ollama desde el navegador (sin Open WebUI)
Si se instaló Ollama y Caddy pero no Open WebUI, Caddy expone la API en:
https://miservidor.midominio.com/ollama/
Protección con API Key: la API de Ollama está protegida por una API Key (Bearer token) generada automáticamente durante la instalación. Toda solicitud debe incluir el header Authorization. Sin este header, Caddy responde con error 401 Unauthorized.
Para obtener la API Key:
# Se muestra al finalizar la instalación. Para recuperarla después:
ai-stack status --show-credentials
También se puede consultar directamente en el archivo de configuración de Caddy:
cat /opt/donweb/ai-stack/env/caddy.env | grep API_KEY
Ejemplos de uso con la API Key:
# Ver los modelos disponibles curl -H "Authorization: Bearer TU_API_KEY" https://miservidor.midominio.com/ollama/api/tags # Hacer una consulta a un modelo curl -H "Authorization: Bearer TU_API_KEY" https://miservidor.midominio.com/ollama/api/generate \ -d '{"model": "llama3.2:3b", "prompt": "Hola, ¿cómo estás?"}'
AI_STACK_CADDY_OLLAMA_API_KEY en /opt/donweb/ai-stack/env/caddy.env y reinstalar con ai-stack install para aplicar el cambio. La protección por API Key solo aplica cuando Ollama está instalado sin Open WebUI.Usar el monitoreo de GPU
Si se instaló monitor-basic:
/opt/donweb/ai-stack/venvs/monitor-basic/bin/nvitop
Muestra en tiempo real: porcentaje de uso de la GPU, memoria usada y disponible, temperatura, y qué procesos están usando la GPU.
q.7. Solución de problemas
La instalación falla al inicio
- "nvidia-smi no encontrado": los drivers de la GPU no están instalados o no funcionan. Contactar al proveedor del servidor.
- "Sistema operativo no soportado": el instalador solo funciona en Ubuntu 24.04 LTS.
No puedo acceder a Open WebUI desde el navegador
-
Con Caddy: verificar que el dominio apunte a la IP correcta con
nslookup midominio.comy que los puertos 80 y 443 estén abiertos. -
Ver los registros del contenedor:
bashdocker logs ai-stack-open-webui
El certificado HTTPS no se genera
- El dominio no apunta a la IP del servidor.
- Los puertos 80/443 están bloqueados.
- Se usó un dominio no válido (
.local,.test, etc.). - Ejecutar
ai-stack statuspara ver el estado de Caddy.
Ollama no responde
# Verificar que el servicio esté corriendo systemctl status ollama # Ver los registros journalctl -u ollama -n 50 # Probar la conexión curl http://127.0.0.1:11434/api/tags
Open WebUI dice que no puede conectar con Ollama
- Verificar que Ollama esté corriendo:
systemctl status ollama -
Reiniciar Open WebUI:
bashdocker restart ai-stack-open-webui
Quiero empezar de cero
# Quitar todo, incluyendo modelos descargados ai-stack reset --purge-data --purge-models yes # Volver a instalar ai-stack install --profile recommended --hostname miservidor.midominio.com
Ver el registro de lo que hizo el instalador
cat /opt/donweb/ai-stack/logs/ai-stack.log
Verificar el estado general
ai-stack status
Muestra de un vistazo qué componentes están instalados, cuáles funcionan correctamente y las direcciones para acceder a cada servicio.
Relacionada con
Comentarios
0 comentarios
El artículo está cerrado para comentarios.