Entrena, ajusta y despliega modelos de IA sobre bare metal con
RTX 3090 o RTX 5090, recursos 100% dedicados y stack listo para usar.
Todos los servidores incluyen Ubuntu 24.04 LTS, Drivers NVIDIA y CUDA preinstalados. Stack de IA opcional instalable en un solo comando (Docker, Ollama y Open WebUI).
Conectividad dedicada y simétrica de 1000 Mbit/s
Una IPv4 pública incluida.
Rangos IPv6 disponibles.
Control total: acceso "root"
Listo para utilizar: Ubuntu 24 LTS + Drivers NVIDIA + CUDA
Configurar un servidor GPU desde cero puede llevar entre 3 y 6 horas: drivers, CUDA, contenedores, herramientas. Nuestros servidores llegan con esa base resuelta. El primer comando que ejecutás es el de tu modelo.

Base incluida
El servidor llega con Ubuntu 24.04 LTS, drivers NVIDIA 550+ y CUDA instalados y verificados. Conectate por SSH y ejecutá nvidia-smi - tus dos GPUs están activas desde el primer login.

Stack de IA con un comando
Con el script que te enviamos junto al acceso, instalás Docker, NVIDIA Container Toolkit, Ollama y Open WebUI en una sola línea. En minutos tenés una interfaz tipo ChatGPT conectada a tus GPUs, corriendo en tu propio servidor.
Inferencia privada de LLM
Corre Llama 3, Mistral, DeepSeek y más. Sin rate limits, sin costos por token. API compatible con OpenAI.
Fine-tuning y entrenamiento
Hardware dedicado para entrenar tus propios modelos. cuDNN y NCCL incluidos para multi-GPU.
Generación de embeddings y RAG
Embeddings locales con nomic-embed-text. Combiná con tu base de datos vectorial. Sin enviar datos a terceros.
Visión por computadora
Ideal para entrenamiento e inferencia de modelos de detección de objetos, clasificación de imágenes y segmentación.
Automatizaciones y agentes de IA
Deploy de frameworks como n8n, LangChain o AutoGen con acceso directo a modelos locales.
Entornos para equipos de I+D
Corre JupyterHub con acceso a GPU desde el browser. Ideal para equipos académicos y de data science.
Producción con soberanía de datos
Tus datos nunca salen de tu servidor. Cumplimiento regulatorio sin compromisos.

Tendrás un servidor dedicado (Bare Metal) 100% para tu proyecto. No compartirás hardware o ancho de banda con nadie más, por lo tanto obtendrás performance y privacidad absoluta para tus proyectos.
Nuestros datacenters World Class disponen de servicios redundante n+1 garantizándote que tu negocio seguirá en línea aún cuando algo falle.
Además, mínima latencia regional y protección DDoS a nivel de carrier.

Monitoreo Pro-Activo
Los servicios críticos (redes, energía, enfriamiento, etc.) son monitoreados 24x365 desde nuestro NOC.
Soporte experto
Un equipo con más de 15 años de experiencia dispuesto a ayudarte en forma rápida y efectiva.
Redes de alta velocidad
Redes confiables y ultra rápidas, sobre los carriers más importantes y reconocidos de la región.
Proveedor certificado
Somos la única empresa de la industria con triple certificación: ISO 9001, ISO 14001 y OHSAS 18001
Infraestructura sustentable
Datacenters con tecnologías eficientes e innovadoras para brindarte el mejor servicio sin sacrificar el futuro.
Crece sin límites
Tu negocio crece y necesitas más...perfecto! Te ayudamos a reconfigurar tu servidor o migrar a otro hardware.
GPU dedicada para IA, con base lista y despliegue simplificado.
Preguntas frecuentes
Ponemos a tu disposición múltiples formas de pago para tu mayor comodidad.
Transferencias / Depósitos Bancarios

otros

Pago electrónico


Tarjetas de Crédito / Débito



Los servidores están alojados en uno de nuestros cuatro datacenters propios en Rosario, Santa Fe, Argentina. Esto implica menor latencia para clientes de la región LATAM y que los datos procesados no salen del continente, lo que puede simplificar el cumplimiento regulatorio en ciertos casos.
En DonWeb disponemos de varias capas de protección para mitigar ataques de denegación de servicios del tipo: SYN, ICMP y UDP flood, Ping of Death, Smurf, etc. También aquellos ataques que intentan saturar el ancho de banda de nuestra red.
En caso de ataques severos y de gran escala, se activarán los sistemas de mitigación que se encuentran aguas arriba, a nivel de nuestros proveedores de conectividad (carriers). Estos se activan de forma automática y dentro de los primeros 5 minutos de comenzado el ataque.
Si los ataques son de menores dimensiones y dirigidos a servidores específicos, se activarán los sistemas de mitigación que se encuentran dentro de nuestros datacenters. Estos sistemas de filtrado cuentan con reglas que se actualizan periódicamente y trabajan de manera automática.
De forma adicional, nuestro personal asignado al Network Operation Center se encuentra monitoreando las redes 24x7x365 y actuarán prontamente ante cualquier anomalía detectada en el tráfico.
Asimismo, más allá del DDoS, existen muchas y muy diversas modalidades de ataques informáticos que pueden afectar a tu sitio o aplicación. Es por eso que te recomendamos:
La activación del servidor dedicado comenzará inmediatamente después de que nuestro equipo administrativo confirme tu pago. Este proceso incluye la implementación de todas las configuraciones necesarias para poner tu servidor en funcionamiento.
El tiempo estimado para la activación varía según el momento en que se confirme el pago:
Cabe destacar que si requieres configuraciones especiales, como la adición de discos o una infraestructura balanceada, el proceso de activación podría extenderse hasta 72 horas. Sin embargo, nos esforzaremos al máximo para minimizar este tiempo y asegurar que tu servidor esté disponible lo antes posible.
Tan pronto como tu servidor esté activo, recibirás un correo electrónico con toda la información necesaria para acceder a él.
Todos los servidores se entregan con Ubuntu 24.04 LTS, drivers NVIDIA, CUDA, cuDNN y NCCL preinstalados y verificados. Podés conectarte por SSH y tener tus GPUs operativas desde el primer login, sin configuración adicional.
6020 ¿Cómo activo el stack opcional de IA?
Con un solo comando que ejecuta un script que te proveemos en el servidor. Hay dos niveles:
Las instrucciones de uso del script las tendrás en la bienvenida de la consola del servidor.
El servidor base incluye el sistema operativo y los drivers. Docker, NVIDIA Container Toolkit y Ollama se activan con un solo comando que te proveemos. Si además querés Open WebUI o monitoreo GPU con nvitop, hay un segundo nivel opcional que también se instala con un comando.
No. Son servidores bare metal completamente dedicados. El hardware, el ancho de banda y los recursos de cómputo son 100% tuyos. No hay “vecino ruidoso” ni throttling.
En servicios de GPU cloud compartida, el hardware se distribuye entre múltiples clientes. Eso puede implicar rendimiento variable, latencia impredecible y que los datos de tu workload pasen por infraestructura de terceros.
Con un servidor GPU dedicado de DonWeb, el hardware es 100% tuyo: GPUs, RAM, ancho de banda y almacenamiento no se comparten con nadie. Además, pagás un precio fijo mensual, sin sorpresas por horas de cómputo o transferencia de datos.
Cualquier carga de trabajo que se beneficie de GPU, por ejemplo:
Tenés acceso root completo, así que podés instalar y configurar lo que necesites. La única excepción es que no están permitidos servidores de juego ni minado de criptos.
No estás limitado a Docker. Podés correr cualquier modelo compatible con las herramientas o frameworks que instales en el servidor. Eso incluye modelos usados con Ollama, vLLM, contenedores Docker o directamente desde frameworks como PyTorch o TensorFlow, ya que tenés acceso root completo.
Esto incluye familias como Llama, Mistral, DeepSeek, Qwen, CodeLlama y modelos de Hugging Face en formato GGUF, entre otros compatibles con tu stack.
Con 48 GB de VRAM combinada (RTX 3090) o 64 GB (RTX 5090), podés correr modelos de hasta 70B parámetros en cuantización Q4.
Sí, sin restricciones. Podés subir modelos propios en formatos como GGUF o safetensors, correr tus propias imágenes Docker, montar volúmenes con tus datos y configurar el entorno exactamente como lo necesitás.
Sí. Ollama expone una API compatible con el formato de OpenAI. Cualquier aplicación que use la SDK oficial de OpenAI puede apuntar a tu servidor cambiando solo la base_url y la api_key, sin cambios de código en tu aplicación.
Sí. Tenés acceso root completo. CUDA es compatible con PyTorch 2.x, TensorFlow 2.x y JAX. También podés usar imágenes oficiales de Docker de Hugging Face, vLLM y otros frameworks sin configuración adicional.
Sirve para ambos. La configuración incluye cuDNN y NCCL, necesarias para training y fine-tuning distribuido en múltiples GPUs. Podés usar frameworks como Hugging Face Transformers, Axolotl o Unsloth directamente sobre el hardware, con acceso completo a las dos GPUs vía PyTorch o TensorFlow.
Sí, siempre que la VRAM total lo permita. Con 2 GPUs podés distribuir cargas manualmente o usar frameworks como vLLM con --tensor-parallel-size 2 para usar ambas GPUs en un solo modelo de gran tamaño.
vLLM es un motor de inferencia optimizado para alto throughput y baja latencia con múltiples requests simultáneos. Ollama es más simple y recomendado para desarrollo individual. Si vas a servir una API de producción con muchos usuarios concurrentes, vLLM es la opción.
La RTX 5090 es la generación más reciente de NVIDIA, con más VRAM por GPU (32 GB vs 24 GB) y mejor rendimiento en cargas de inferencia y training.
La RTX 3090 sigue siendo muy capaz para producción, especialmente para inferencia de modelos de hasta 70B parámetros en cuantización Q4 usando ambas GPUs. Si tu carga incluye fine-tuning intensivo o modelos de próxima generación, la RTX 5090 es la opción recomendada.
Incluye conectividad dedicada y simétrica de 1 Gbit/s. Esto permite descargar modelos grandes o transferir datasets sin inconvenientes ni demoras.
Sí. Podemos realizar conexiones LAN entre dos o más servidores dedicados. Esto permite armar clusters de inferencia distribuida o separar roles, por ejemplo entre servidor de modelos y servidor de base de datos vectorial. Consultá con nuestros asesores para definir la configuración ya que tiene requerimientos especiales.
Sí. Las configuraciones publicadas son las más comunes, pero podemos armar opciones a medida según tus necesidades de RAM, almacenamiento o conectividad. Si tu proyecto requiere conectar múltiples servidores GPU entre sí vía LAN, mayor ancho de banda o cualquier otra variación, contactá a nuestro equipo de infraestructura para evaluarlo.
Incluye soporte técnico de DonWeb para hardware, red y conectividad. El servidor se entrega con acceso root total, por lo que la gestión del software y las aplicaciones es responsabilidad del cliente. Si necesitás asistencia con configuraciones específicas, podés consultarlo con nuestro equipo.