GPU on Demand para Kubernetes

Potencia GPU dedicada cuando la necesitas. Amplía tu clúster Kubernetes local o híbrido sin modificar tu infraestructura.

  • Integración nativa con Kubernetes

  • Cero CAPEX, costes previsibles

  • Escalabilidad dinámica (Plug & Play)

  • Soberanía de los datos (100% Europa)

SOLICITAR CONTACTO Más información

Amplía tu clúster Kubernetes con GPU físicas dedicadas

GPU on Demand de Aruba Cloud te permite integrar en pocos minutos GPUs NVIDIA dedicadas, conectadas a tu clúster Kubernetes existente.
Dispones de capacidad de cómputo escalable para AI/ML, rendering 3D y analítica, con costes mensuales transparentes y sin lock-in arquitectural.
Basado en la infraestructura cloud europea de Aruba, garantiza un rendimiento constante, seguridad y soberanía de los datos, con activación y disponibilidad al instante.

IA acelerada

Ya sea para inferencia o fine tuning, las GPU dedicadas de Aruba Cloud ofrecen baja latencia y un rendimiento siempre estable.
Tu clúster escala en minutos: prueba, experimenta y despliega sin frenar tu flujo DevOps.

Rendering

Perfiles de GPU NVIDIA RTX optimizados para rendering 3Ddiseño visual y producción de vídeo.
Trabajas en tiempo real con recursos dedicados y un rendimiento fluido y constante.

Machine Learning

Ajusta tus modelos en GPU dedicadas de alto rendimiento, sin límites de escalabilidad.
Nosotros gestionamos la infraestructura; tú te centras en el feature engineering y las pruebas.

Análisis de datos

Procesa grandes volúmenes de datos con alto rendimiento y obtén resultados más rápido.
Ideal para pipelines de big data, vídeo-analítica y detección de anomalías casi en tiempo real.

Precios GPU On Demand

GPU on Demand - Nvidia GeFORCE RTX 4080 Super

389,90 € + IVA / mes Configuración gratuita si contratas por 6 meses*

  • CUDA Cores: NVIDIA CUDA Cores 10240
  • GPU: Nvidia GeFORCE RTX 4080 Super
  • GPU Memory: 16GB GDDR6X

GPU on Demand - Nvidia L40S

1499,90 € + IVA / mes Configuración gratuita si contratas por 6 meses*

  • CUDA Cores: NVIDIA Ada Lovelace Architecture - CUDA Cores 18176
  • GPU: Nvidia L40S
  • GPU Memory: 48GB GDDR6 with ECC

Arquitectura de federación: cómo funciona

Escalabilidad segura entre distintas regiones y clústeres.

Amplía dinámicamente tu clúster Kubernetes aprovechando GPUs remotas como si fueran recursos locales, sin necesidad de modificar tus aplicaciones.

  • Virtual node integrado mediante LIQO

  • GPUs físicas dedicadas y soberanas

  • Las mismas API, sin lock-in

Por qué elegir GPU On Demand de Aruba Cloud

Sin Lock-in

Amplía cualquier arquitectura Kubernetes —local, pública o híbrida— sin tocar tus herramientas ni APIs. Las GPUs aparecen como recursos nativos del clúster, sin restricciones de plataforma.

Soberanía y compliance by design

Datos y cargas de trabajo permanecen en Europa, con infraestructura y procesos conformes al RGPD y requisitos de residencia de datos. Tienes control total sobre dónde residen y cómo se gestionan.

Costes predecibles

GPUs dedicadas con tarifa fija o paquete, con monitorización clara del consumo. Escala o desactiva recursos cuando lo necesites, controlando siempre el presupuesto.

Integración transparente

Mismas API de Kubernetes, mismas pipelines CI/CD y las mismas herramientas. Federas GPUs dedicadas sin modificar la arquitectura ni los flujos de trabajo.

Escalabilidad inmediata

Accede bajo demanda a GPUs remotas y escala cargas de IA cuando al momento. Mantén agilidad y rendimiento constante incluso en picos de carga.

Activación rápida y reversible

Conecta GPUs dedicadas en pocos minutos y libéralas cuando ya no las necesites. Ideal para PoC, pruebas, picos estacionales o fases de experimentación controlada.

Pruébalo con Aruba Managed Kubernetes y empieza a crear tu Private AI

GPUs dedicadas + Aruba Managed Kubernetes: la combinación más rápida para llevar AI/ML a producción. Activa GPU on Demand, escala cuando sea necesario y mantén el control sobre costes, datos y rendimiento.

GPU on Demand: preguntas frecuentes

  • Permite añadir capacidad GPU en pocos minutos para AI generativa, entrenamiento, renderizado 3D o analítica.
    Ideal para gestionar picos de carga o experimentar sin modificar la pipeline: conectas, usas y liberas.

  • El requisito previo es utilizar Kubernetes.
    Necesitas un clúster Kubernetes. Federas tu clúster con un servidor GPU dedicado (mediante Liqo) y las GPUs remotas se convierten en recursos del clúster. Programas los pods de AI/ML como en cualquier worker node.

  • Compatible con las principales plataformas: AKS, EKS, GKE, OpenShift, Tanzu, Rancher y distribuciones vanilla. Sin dependencia de stacks propietarios.

  • Gracias al modelo on demand con facturación mensual, tienes visibilidad del consumo y puedes escalar o desactivar GPUs de forma autónoma. Sin sorpresas a fin de mes.

Empieza ahora con Aruba Cloud

¿Quieres probar Aruba Cloud?

Solo necesitas unos minutos para empezar.

Crea una cuenta