La convergencia entre IA local en entornos empresariales y las infraestructuras cloud marcan un hito en la evolución tecnológica actual. SoaxNG, la capa de orquestación propietaria de OASIX Cloud basada en OpenStack, se posiciona como plataforma ideal para implementar Ollama, el framework líder para ejecución local de Large Language Models (LLMs). Esta integración permite combinar la escalabilidad cloud con la privacidad de procesamiento AI in situ, creando ecosistemas híbridos donde los datos sensibles permanecen bajo control directo mientras se aprovechan las ventajas computacionales de la nube.
Índice de Contenidos
Fundamentos Tecnológicos de Ollama en Entornos SoaxNG
¿Porqué utilizar Ollama con Openweb-UI?
La combinación de Ollama con una interfaz gráfica como Open WebUI permite interactuar con modelos de lenguaje a través de una plataforma visual e intuitiva, eliminando la necesidad de utilizar la línea de comandos. Esto facilita su adopción por parte de usuarios sin experiencia técnica y resulta especialmente útil para equipos que buscan trabajar de forma colaborativa en entornos accesibles y eficientes
Arquitectura de Despliegue Contenerizado
Ollama opera bajo un modelo de contenedores Docker que SoaxNG gestiona mediante su motor de orquestación avanzado. Esta simbiosis tecnológica permite:
- Aislamiento de recursos: Cada instancia Ollama se ejecuta en contenedores independientes con asignación granular de CPU/GPU24
- Escalabilidad: SoaxNG autoajusta los recursos para soportar el incremento de réplicas durante picos de inferencia para ejecutar tus modelos
- Integración storage cloud: Volúmenes persistentes conectados a los sistemas Flash Scale Premium de OASIX para manejo de modelos GGUF >100GB
El despliegue típico utiliza Docker Compose con perfiles específicos para CPU/GPU, aprovechando las capacidades multi-tenant de SoaxNG para segregar entornos de desarrollo/producción Un stack básico incluye:
- Ollama Core: Contenedor principal con runtime para modelos GGUF
- Open WebUI: Interfaz gráfica unificada para gestión de modelos y chats
- Nginx: Proxy inverso con terminación TLS y balanceo de carga
Modelos Soportados y Especificaciones Técnicas
SoaxNG optimiza el rendimiento de diversos modelos mediante perfiles hardware predefinidos:
Modelo | vCPU Mínimas | RAM Mínima | Almacenamiento | Caso Uso Principal |
DeepSeek-R1 | 8 | 32GB | 150GB | Razonamiento analítico13 |
Llama 3.2 | 4 | 16GB | 45GB | Generación textual11 |
CodeLlama-70B | 12 | 64GB | 85GB | Asistencia desarrollo15 |
LLaVA-1.6 | 6 | 24GB | 35GB | Visión computacional7 |
Casos de Uso Estratégicos
Ciberseguridad Automatizada
Ollama en SoaxNG potencia SOCs mediante:
- Generación automática de playbooks: Crea procedimientos IR ante nuevos CVE usando MITRE ATT&CK
- Análisis forense acelerado: Procesa 1TB de logs diarios identificando patrones APT
- Simulación de ataques: Genera escenarios realistas para entrenar equipos rojos
Automatización de Procesos Empresariales
- Procesamiento documental: Extracción inteligente de contratos usando LLaVA
- Asistencia regulatoria: Monitoreo cambios normativos ENISA/GDPR en tiempo real
- Generación de contenidos: Creación automatizada de documentación técnica con validación cross-team
DevOps Inteligente
- Código seguro: Análisis estático/dinámico con sugerencias de parcheo
- Optimización infraestructura: Recomendaciones de scaling basadas en telemetría
- Incident management: Clasificación automática de tickets con RCA preliminar
Modelo de Seguridad y Gobernanza
Arquitectura Zero-Trust
SoaxNG implementa protección multi-nivel:
- Cifrado homomórfico: Para inferencia sobre datos sensibles (salud/finanzas)
- NVIDIA Confidential Computing: Aislamiento hardware de modelos mediante GPU TEE
- RBAC granular: Permisos a nivel de modelo/prompt/output7
Cumplimiento Normativo
La solución certifica:
- ENS Alto: Para organismos públicos españoles
- GDPR Art.35: DPIA para procesamiento de datos personales
- ISO 27001/27017: Gestión segura en infraestructura cloud
Los modelos incluyen auditorías periódicas mediante BERT de cumplimiento para detectar desviaciones regulatorias.
Menús y opciones principales de OpenWebUI con Ollama
- Pantalla de inicio y autenticación
- Al acceder por primera vez, se solicita crear una cuenta con usuario y contraseña. El primer usuario creado tiene permisos de administrador y puede gestionar la base de datos y la configuración general.
- La autenticación puede desactivarse mediante parámetros al ejecutar el servidor.
- Selección de modelos
- En el menú superior izquierdo, aparecen todos los modelos descargados y disponibles en Ollama. Puedes seleccionar el modelo con el que deseas interactuar, cambiarlo en cualquier momento y probar diferentes opciones según tus necesidades.
- Es posible añadir, borrar o descargar nuevos modelos directamente desde la interfaz.
- Chat principal
- El área central permite enviar mensajes y recibir respuestas del modelo seleccionado, igual que en un chat tradicional.
- Puedes crear múltiples conversaciones y gestionar el historial de chats.
- Opciones avanzadas y configuración
- Configuración de conexión: Permite establecer o modificar la IP y puerto del servidor Ollama, así como añadir modelos de embedding o visión si están disponibles.
- Ajustes de parámetros: Puedes modificar parámetros del modelo, como el tamaño de contexto, temperatura, top-p, etc., y confirmar que estos ajustes se aplican correctamente.
- Configuración de audio e imágenes: Puedes activar el uso de micrófono para entrada de voz, ajustar cómo se procesa el audio, y habilitar la generación o análisis de imágenes si tu modelo lo soporta.
- OCR y documentos: Hay opciones para subir documentos (PDF, imágenes) y activar la extracción de texto mediante OCR directamente desde la interfaz.
- Funciones adicionales
- Plantillas de prompt: Puedes guardar, editar y reutilizar prompts personalizados para acelerar tareas repetitivas.
- Integración con internet: Algunas versiones permiten consultar información en línea o consumir páginas web desde la interfaz, si el modelo y la configuración lo permiten.
- Gestión de usuarios: El administrador puede gestionar usuarios y, en entornos empresariales, integrar autenticación SSO (por ejemplo, con Microsoft.
Ollama + SoaxNG: claves para la adopción de IA local en entornos empresariales
Aprovecha la integración de Ollama y Open WebUI para gestionar modelos de lenguaje mediante una interfaz intuitiva, ideal para quienes se inician en la inteligencia artificial. Para organizaciones españolas, representa una oportunidad estratégica para adoptar IA generativa manteniendo soberanía digital simplificando la instalación, permitiendo que cualquier usuario, sin importar su experiencia técnica, configure estas herramientas rápidamente.
Tras completar la instalación, tendrás acceso a un panel de control donde podrás elegir modelos, ejecutarlos y descubrir funciones colaborativas diseñadas para potenciar la productividad.
Open WebUI incorpora utilidades avanzadas, como la búsqueda en internet y la personalización de parámetros del modelo, lo que resulta especialmente útil para quienes buscan adaptar las respuestas a sus necesidades.
Si deseas implementar tus propios modelos, puedes importar bases de conocimiento, experimentar con diferentes instrucciones y combinar recursos personalizados desarrollados por la comunidad.
¿Tienes dudas? Contacta con nosotros y te ayudaremos a resolverlas.