Inicio > Empresas > Cómo desplegar Ollama con Nvidia para Inteligencia Artificial

Cómo desplegar Ollama con Nvidia para Inteligencia Artificial

persona con Instancia en Soax de Ollama

Ollama es una plataforma diseñada para ejecutar modelos de inteligencia artificial de forma local, ofreciendo una alternativa potente y eficiente sin depender de la nube. Al combinar Ollama con GPUs Nvidia, se maximiza el rendimiento en el entrenamiento e inferencia de modelos de IA, acelerando procesos y reduciendo el consumo de recursos. En este artículo, te explicamos cómo desplegar Ollama con Nvidia paso a paso, optimizando su integración para proyectos avanzados de inteligencia artificial.

La inteligencia artificial está transformando el panorama empresarial a un ritmo sin precedentes, convirtiéndose en una herramienta esencial para impulsar la eficiencia, la innovación y la ventaja competitiva. En 2025, las empresas enfrentan retos cada vez más complejos, como la necesidad de procesar grandes volúmenes de datos en tiempo real, optimizar sus operaciones y ofrecer experiencias personalizadas a sus clientes. La IA no solo automatiza tareas rutinarias, sino que también permite una toma de decisiones más estratégica y basada en datos, redefiniendo los modelos de negocio tradicionales

En este contexto, estoy emocionado de anunciar que voy a desplegar un entorno Ollama sobre Rocky Linux 9, utilizando una tarjeta Nvidia L4. Este proyecto busca aprovechar el poder de la IA generativa para ofrecer soluciones avanzadas que puedan integrarse directamente en procesos empresariales críticos. Desde la personalización de experiencias hasta la optimización de recursos, este entorno promete ser una herramienta clave para demostrar cómo la IA puede transformar operaciones cotidianas y abrir nuevas oportunidades para las empresas

La combinación de Rocky Linux 9 y hardware especializado como la Nvidia L4 garantiza un rendimiento robusto y escalable, ideal para manejar modelos de IA de última generación. Este despliegue no solo es una demostración técnica, sino también una apuesta por el futuro de las empresas que buscan mantenerse competitivas en un mundo cada vez más digitalizado.

Instalación en SoaxNG de nuestra instancia

  • S.O: Rocky 9
  • Sabor: 14vCPU y 58GB Ram
  • Disco: 600GB Disco Flash
  • GPU: Tarjeta L4 nvidia
  • IP red Externa (pública)

Vamos a utilizar desde nuestra plataforma de nube pública una de nuestras imágenes Rocky9 optimizada para entornos con GPU ya que lleva ya integrados los gráficos de Nvidia para facilitarnos la puesta en marcha y compatibilidad.

Crear instancia en Soax de Ollama

Para esta prueba iremos a nuestra sección de GPU y generaremos una instancia dedicada con una tarjeta L4 en un host de 64GB Ram físico (58GB RAM utilizable por nuestra instancia).

Una vez que ejecutemos esta instancia en unos simples pasos podremos ver nuestra instancia preparada y lista para trabajar:

Configuración  de S.O

Lo primero que vamos a hacer es deshabilitar Selinux en nuestro sistema para evitar futuros problemas. Para ello ejecutamos el siguiente comando que lo deshabilitara tanto actualmente como en arranque:

sudo sed -i «s/SELINUX=enforcing/SELINUX=disabled/» /etc/sysconfig/selinux &&
sudo sed -i «s/SELINUX=enforcing/SELINUX=disabled/» /etc/selinux/config &&
setenforce 0

A continuación, hacemos un update de los paquetes de nuestro sistema. Añadimos repositorio oficial de Docker y instalaremos los paquetes necesarios.

sudo dnf update -y
sudo dnf config-manager –add-
repo https://download.docker.com/linux/centos/docker-ce.repo
sudo dnf install -y docker-ce

IA en nube pública Oasix

Instalación y configuración Drivers nvidia para Docker

Recordamos que la imagen que hemos utilizado ya viene cargada con los drivers de Nvidia. Vamos a hacer una configuración para instalar los drivers de container debido a que vamos a instalar nuestro ollama sobre contenedores y necesita estos drivers para manejar la GPU.

  1. sudo curl -s -L https://nvidia.github.io/libnvidia-container/stable/rpm/nvidia-container-toolkit.repo | sudo tee /etc/yum.repos.d/nvidia-container-toolkit.repo
  2. sudo dnf install -y nvidia-container-toolkit
  3. sudo nvidia-ctk runtime configure –runtime=docker –set-as-default
  4. sudo systemctl daemon-reload
  5. sudo systemctl restart Docker

Instalación de los servicios

Para facilitar la instalación de nuestro primer entorno de IA hemos dejado un Docker compose con una variedad de servicios a instalar que nos permitirá tener un stack de desarrollo en nuestros primeros pasos con la IA. Para ello instalaremos:

  1. Ollama
  2. Open-webui
  3. Code-Server
  4. JupyterLab
  5. Nginx Proxy Manager

Todos estos servicios podéis quitarlos modificando el stack que dejamos a continuación.

docker compose -f stack.yml up -d

version: ‘3.8’
services:
# Servicio principal de Ollama con soporte GPU
ollama:
image: ollama/ollama
container_name: ollama
ports:
– «11434:11434»
volumes:
– ollama_models:/root/.ollama
networks:
– ai-network
deploy:
resources:
reservations:
devices:
– driver: nvidia
count: 1
capabilities: [gpu]
runtime: nvidia
restart: unless-stopped
# Interfaz Web para Ollama (Open WebUI)
open-webui:
image: ghcr.io/open-webui/open-webui:main
container_name: open-webui
ports:
– «3000:8080»
environment:
– OLLAMA_BASE_URL=http://ollama:11434
volumes:
– open-webui:/app/backend/data
depends_on:
– ollama
networks:
– ai-network
restart: unless-stopped
# Entorno de desarrollo VS Code
code-server:
image: codercom/code-server:latest
container_name: code-server
ports:
– «8080:8080»
environment:
– PASSWORD=T3mp0r4l2025. # Cambia esto!
volumes:
– code-server:/home/coder/project
networks:
– ai-network
restart: unless-stopped
# JupyterLab para experimentación
jupyter:
image: jupyter/datascience-notebook:latest
container_name: jupyter
ports:
– «8888:8888»
volumes:
– jupyter-data:/home/jovyan/work
networks:
– ai-network
restart: unless-stopped
# Nginx Proxy Manager con Let’s Encrypt
proxy:
image: jc21/nginx-proxy-manager:latest
container_name: nginx-proxy
ports:
– «80:80» # HTTP
– «443:443» # HTTPS
– «81:81» # Admin UI
volumes:
– proxy_data:/data
– proxy_letsencrypt:/etc/letsencrypt
networks:
– ai-network
environment:
DB_MYSQL_HOST: «proxy-db»
DB_MYSQL_PORT: 3306
DB_MYSQL_USER: «d4t4b4s4Us3r»
DB_MYSQL_PASSWORD: «d4t4b4s4P4ss»
depends_on:
– proxy-db
restart: unless-stopped
# Base de datos para Nginx Proxy Manager
proxy-db:
image: jc21/mariadb-aria:latest
container_name: proxy-db
volumes:
– proxy_db:/var/lib/mysql
networks:
– ai-network
environment:
MYSQL_ROOT_PASSWORD: «d4t4b4s4P4ss»
MYSQL_DATABASE: «d4t4b4s4P4ss»
MYSQL_USER: «d4t4b4s4Us3r»
MYSQL_PASSWORD: «d4t4b4s4P4ss»
restart: unless-stopped
volumes:
ollama_models:
open-webui:
code-server:
jupyter-data:
proxy_data:
proxy_letsencrypt:
proxy_db:
networks:
ai-network:
driver: bridge

Una vez que hemos ejecutado nuestro Docker compose podremos ir a nuestra instancia y comprobar como se están ejecutando los servicios con el siguiente comando:
Docker ps -a

En unas semanas publicaremos la segunda parte de este artículo, donde configuraremos el entorno web, parametrizaremos Nginx y daremos nuestros primeros pasos con la integración. ¡No te lo pierdas!

Si te ha gustado, compártelo en redes sociales

Artículos relacionados

Pablo García

En Teradisk son consultores expertos en servicios gestionados para entornos cloud. Proveedores de infraestructura cloud con migración, monitorización, seguridad e integraciones; especializados en servicios de ciberseguridad con SOC propio, sistemas de misión crítica, alta disponibilidad y entornos web distribuidos y escalables, ofreciendo el servicio y operativa en formato 24/7.

Compañía dedicada a la provisión de servicios de conectividad y data center en las Islas Canarias, con una potente red y que orienta su negocio a clientes empresas, AAPP y Wholesale.

Carlos Cortés

Carlos descubrió que su pasión era la tecnología en el año 1997, cuando comenzó a trabajar para Motorola, el fabricante americano de tecnología, líder del mercado mundial durante décadas.

A partir de ahí, se sumergió en el sector tecnológico hasta que en 2018 encontró un proyecto que le apasionó y que le ofrecía la oportunidad de volver a trabajar en su tierra, Alicante.

Un proyecto que le permite desarrollar su pasión por las cosas bien hechas, en busca del crecimiento y mejora constante, buscando dar lo mejor de sí mismo y de la compañía, ofreciendo lo mejor a nuestros clientes.

Félix Nebreda

Félix inició su carrera como consultor en tecnología hace casi 30 años, trabajando para diversas compañías. Fue en Unisys España donde descubrió que su verdadera pasión era la relación con el cliente. Desde entonces, ha asumido responsabilidades de negocio en cuentas clave, tanto a nivel nacional como internacional, en multinacionales como Colt y Brocade.

Posteriormente, se embarcó en la emocionante tarea de participar en el lanzamiento de LCRcom, un nuevo operador para empresas en el ámbito nacional, con gran éxito. Desde el principio, en LCRcom ha sido responsable de la generación de negocio en diferentes territorios y de la gestión de equipos comerciales.

Actualmente, en Grupo Aire, Félix dirige el Área SME, donde se dedica a desarrollar y ejecutar estrategias de negocio que mantienen al Grupo Aire como líder en el sector a nivel nacional.

Joan Aniorte

Joan ve la tecnología como una palanca con la que accionar el acceso al conocimiento y posibilitar la comunicación entre personas en tiempo real. Desde sus inicios en Grupo Aire, cuando estaba en el último curso de universidad, se ha esforzado por superar los retos técnicos a los que se ha ido enfrentando, con la motivación de aprender y llegar al fondo de cada proyecto. Como CTO Staff, aplica esta experiencia, su visión, empuje y mimo por los detalles a distintas áreas de trabajo. Del proyecto destaca su vocación tecnológica y su equipo, por su calidad humana y su enfoque de resolución del problema.

Manuel Rivera
María Pérez Carrascosa

Tras el salto de la banca a las telecomunicaciones, María aporta su experiencia en el sector y una nueva visión de la función financiera estratégica, además de mejores prácticas y soporte a los accionistas y equipo directivo para la toma de decisiones. Todo ello con el objetivo de llevar a Grupo Aire hacia las metas propuestas en el plan de negocio.

Del Grupo Aire destaca su capacidad de adaptarse al mercado de las telecomunicaciones innovando; una infraestructura única en la península Ibérica y un capital humano cualificado y comprometido que, junto con el apoyo de Ardian, son clave para el éxito del proyecto.

Zigor Gaubeca

A pesar de criarse en un pequeño pueblo con menor facilidades de acceso a la tecnología, para Zigor no fue una barrera el sumergirse en el sector tecnológico desde muy joven, comenzando después la carrera de Ingeniería Informática con la intención de seguir profundizando sobre todo lo que había ido aprendiendo de forma autodidacta a lo largo de los años.

Su sueño de dedicarse al mundo de la conectividad se hizo realidad al llegar a la compañía, donde sintió el proyecto como suyo desde el primer momento, compartiendo triunfos y aprendiendo de los fracasos.

Con un gran sentido de equipo, Zigor trabaja diariamente para ayudar en la toma de decisiones aportando su visión y experiencia, asumiendo todos los retos que pueda encontrar en el camino y manteniendo ese ADN de la compañía en el que la tecnología, el trabajo en equipo y la innovación son esenciales.

Santi Magazù

Santi Magazù tiene más de 20 años de experiencia en el sector de telecomunicaciones y de servicios TI, habiendo ocupado puestos directivos en multinacionales como Telefónica, donde desempeñó varios cargos, como director de ingeniería de servicios TI para España y director comercial de Cloud Computing para todo el Grupo. También ha trabajado como director de Marketing en el operador regional Grapes, y como CEO y COO en startups de tecnología, entre ellas en PlayGiga, la primera compañía adquirida por Facebook en España. Inició su carrera como consultor de estrategia en Monitor Co., actualmente parte de Deloitte.

En cuanto a su formación, es ingeniero industrial por el Politécnico de Milán y MBA por INSEAD (Francia).

Ángel Blancas

Ángel Blancas tiene una carrera a nivel directivo de más de 30 años en compañías como Grupo SIA (Indra), donde estuvo liderando el área de Cloud Computing y Managed Services como Senior Director; Colt Technology dónde ocupo la posición de Regional General Manager en España y Portugal. Otras empresas en las que ha trabajado dentro del sector tecnológico son T-Systems Iberia, Dell Computer, Getronics y Sun Microsystems (Oracle). Recientemente, ocupó la posición de Regional Director en Claranet.

Estudió Ingeniería de Telecomunicaciones en la Universidad Politécnica de Madrid y tiene un máster en Inteligencia Artificial por la Universidad Internacional de Valencia. Llega a Grupo Aire para dar apoyo en la definición y estrategia de Producto.

Miguel Tecles

Consejero

Curiosidad y pasión por la tecnología son el motor imparable de una carrera profesional que empezó, nada menos que a los 4 años, arreglando el cable roto de una plancha que había dejado de funcionar. Desde ese precoz impulso, la biografía de Miguel Tecles está escrita con cables de colores, líneas de programación, ondas de radio, señales de internet cuando casi no existía, muchos voltios y algún calambre inesperado.

Hoy, con el cargo de Chief Technology Officer en Aire Networks, Miguel Tecles es uno de sus principales pilares.

Nadie mejor que él personifica el compromiso de la compañía con sus clientes: llevar la tecnología siempre al siguiente nivel, haciendo lo que nadie hace, como nadie lo hace y llegando hasta donde nadie llega, para ofrecer servicios que generen valor para todos.

Raúl Aledo

CEO

Apasionado de la tecnología y el funcionamiento interno de todo lo que le rodeaba desde muy temprana edad, Raúl empezó sus primeros pinitos en el mundo de la electrónica y la programación a los 14 años, cuando hizo su primer programa de facturación, contabilidad y gestión de almacén para la empresa familiar.

Con ello y la llegada de internet, comenzó su dedicación al mundo de las telecomunicaciones, estudiando Ingeniería Informática, donde conoció a su primer socio, Miguel Tecles, a través de lo que fue una de las primeras redes sociales, IRC. Tras más de dos años trabajando juntos y mejorando su know-how, conocieron a Emilio Gras, el tercer socio de la actual compañía, comenzando juntos en 1996 su primer proyecto de ServiHosting, e iniciando un camino que los llevaría hasta donde están hoy.

Raúl es pilar fundamental en el Grupo Aire, no solo a través de su experiencia, sino a través de los valores que aporta e implementa en la compañía, como la visión de futuro, aceptando retos y alcanzando metas; su compromiso con cada detalle y el sentimiento de equipo, fomentándolo día a día.

Configuración de las cookies

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de Aire Networks. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.