Servidor IA Local con RTX 3090: La Mejor Opción Calidad/Precio para tu Homelab

NVIDIA GeForce RTX 3090 Founders Edition para servidor de IA local

¿Cuánto llevas pagando por suscripciones a ChatGPT, Claude o Copilot? Si llevas más de un año usando IA en la nube, probablemente hayas gastado lo suficiente como para haber montado tu propio servidor local. Y aquí viene la sorpresa: no necesitas hardware nuevo. Ese PC viejo que tienes en el trastero, con una RTX 3090 de segunda mano, puede convertirse en el centro neurálgico de IA para tu homelab. Una inversión única que te liberará de suscripciones mensuales para siempre.

Por qué la RTX 3090 es el arma secreta del IA local en 2026

La NVIDIA GeForce RTX 3090 con sus 24GB de VRAM GDDR6X sigue siendo, en 2026, la tarjeta gráfica con mejor relación calidad/precio para ejecutar modelos de lenguaje grandes localmente. ¿Por qué? Porque los modelos de IA actuales han crecido en capacidad, pero también en eficiencia. Hoy puedes ejecutar modelos de 20-30 mil millones de parámetros con cuantización que ofrecen un rendimiento comparable a GPT-5, todo en una GPU que puedes encontrar por menos de la mitad de su precio de lanzamiento.

Los 24GB de VRAM son el punto óptimo para el entusiasta del IA local. No es casualidad que tanto la RTX 3090 como la RTX 4090 compartan esta cantidad de memoria: es el umbral donde los modelos Q4_K_M de 20-30B parámetros caben cómodamente, ofreciendo un equilibrio perfecto entre calidad de respuesta y velocidad de inferencia.

CaracterísticaEspecificación
GPUNVIDIA RTX 3090 (24GB GDDR6X)
PC recomendadoIntel 6th gen+ / AMD Ryzen 2000+
RAM mínima32GB DDR4 (64GB recomendado)
Almacenamiento500GB NVMe SSD (modelos ocupan 12-20GB)
Fuente de alimentación750W 80 Plus Gold mínimo
Consumo total350-450W en carga, 80-120W reposo
Conectividad1GbE (recomendado 2.5GbE+ para transferencias)

Montaje paso a paso: De PC viejo a servidor de IA

El hardware que necesitas

El requisito mínimo es sorprendentemente bajo. Cualquier PC con un PCIe 3.0 x16 funciona:

  • CPU: Intel Core i5-6500 o superior / AMD Ryzen 5 2600 o superior
  • Placa base: Con slot PCIe x16 y alimentación auxiliar de 8+8 pines
  • RAM: 32GB DDR4 (funciona con 16GB, pero limita contexto largo)
  • Almacenamiento: SSD NVMe de 500GB+ para modelos y datos
  • Fuente: 750W con cables PCIe dedicados (la 3090 consume 350W)

El truco está en que no necesitas CPU potente. El procesador solo gestiona la carga/descarga de modelos; todo el trabajo pesado de inferencia lo hace la GPU. Un Core i3 de décima generación es suficiente.

Instalación de Ollama en Ubuntu: Guía rápida

Ollama es la plataforma más sencilla para ejecutar modelos LLM localmente. Convierte la complejidad de gestionar dependencias CUDA, cuantización y contextos en un simple ollama run modelo.

Paso 1: Preparar Ubuntu Server

Instala Ubuntu Server 22.04 LTS o 24.04 LTS. La versión server consume menos recursos que el escritorio:

# Actualizar el sistema
sudo apt update && sudo apt upgrade -y

# Instalar dependencias necesarias
sudo apt install -y curl wget git build-essential

# Instalar drivers NVIDIA (versión más reciente)
sudo apt install -y nvidia-driver-535
sudo reboot

Paso 2: Verificar la GPU

Después del reinicio, confirma que Ubuntu reconoce la RTX 3090:

nvidia-smi

Deberías ver información de tu RTX 3090 con los 24GB de memoria detectados.

Paso 3: Instalar Ollama

# Instalación oficial de Ollama
curl -fsSL https://ollama.com/install.sh | sh

# Verificar instalación
ollama --version

Paso 4: Configurar acceso remoto (opcional pero recomendado)

Para acceder desde otros dispositivos de tu red:

# Editar el servicio de systemd
sudo systemctl edit ollama.service

# Añadir estas líneas:
[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"

# Recargar y reiniciar
sudo systemctl daemon-reload
sudo systemctl restart ollama

Paso 5: Descargar y ejecutar tu primer modelo

# Descargar y ejecutar GPT-OSS 20B
ollama run gpt-oss:20b

# O Qwen3-Coder 30B para programación
ollama run qwen3-coder:30b

La primera descarga tardará varios minutos dependiendo de tu conexión. Los modelos se almacenan en /usr/share/ollama/.ollama/models/.

Modelos recomendados para 24GB VRAM

Con 24GB de VRAM tienes acceso a los modelos más capaces disponibles en código abierto. Estos son mis dos recomendaciones principales:

gpt-oss:20b — El todo-terreno

Cuándo usarlo: Para tareas generales, redacción, análisis de documentos, brainstorming y conversaciones complejas. Es el modelo más equilibrado en términos de calidad/velocidad para hardware doméstico.

  • Tamaño: ~12-13GB en cuantización Q4_K_M
  • Velocidad: 15-25 tokens/segundo en RTX 3090
  • Contexto: Hasta 128K tokens (con configuración)
  • Ideal para: Chat general, resumen de textos, razonamiento

Ejecuta con: ollama run gpt-oss:20b

qwen3-coder:30b — El especialista en código

Cuándo usarlo: Para programación, debugging, explicación de código, generación de scripts y tareas técnicas. Ofrece capacidades cercanas a Copilot o Cursor pero completamente privadas.

  • Tamaño: ~18-20GB en cuantización Q4_K_M
  • Velocidad: 10-18 tokens/segundo en RTX 3090
  • Contexto: 32K tokens nativo, ampliable
  • Ideal para: Desarrollo de software, análisis de código, automatización

Ejecuta con: ollama run qwen3-coder:30b

La magia de tener ambos es poder cambiar de modelo según la tarea. Para una consulta rápida de código, qwen3-coder. Para redactar un email complejo, gpt-oss. Todo sin salir de tu red local.

Comparativa: ¿Qué alternativas hay y por qué son peores?

Antes de que saltes a comprar hardware, veamos honestamente qué otras opciones existen y por qué la combinación PC viejo + RTX 3090 gana en la mayoría de casos:

Opción 1: Mac mini M4 (32GB/64GB)

El Mac mini M4 es el competidor más directo. Es silencioso, eficiente y ejecuta modelos decentes en su memoria unificada.

CaracterísticaMac mini M4 32GBMac mini M4 64GBPC + RTX 3090
Precio aproximado1.199€2.199€600-900€ (GPU) + PC existente
Memoria para IACompartida 32GBCompartida 64GBDedicada 24GB GDDR6X
Ancho de banda memoria~120 GB/s~120 GB/s936 GB/s
Velocidad inferenciaModeradaModeradaRápida (CUDA optimizado)
ExpandibilidadNingunaNingunaTotal
Consumo~20W~20W350-450W
RuidoSilenciosoSilenciosoModerado-alto

Veredicto: El Mac mini M4 es excelente si valoras el silencio y la eficiencia energética por encima de todo. Pero para rendimiento bruto de IA, la RTX 3090 ofrece 7-8x más ancho de banda de memoria y compatibilidad CUDA que acelera drásticamente la inferencia. Además, el Mac mini con 64GB cuesta más del doble que una RTX 3090 usada.

Opción 2: GPU nueva (RTX 4090/5090)

La RTX 4090 ofrece el mismo 24GB que la 3090 pero con arquitectura Ada Lovelace más eficiente. La RTX 5090 promete más VRAM pero:

  • RTX 4090: ~1.800-2.000€ nueva (misma VRAM, ~40% más rápida)
  • RTX 5090: Precio desconocido, probablemente >2.500€
  • RTX 3090 usada: 600-900€

A menos que el consumo eléctrico sea crítico para ti, la 3090 usada ofrece el 70% del rendimiento de una 4090 al 40% del precio.

Opción 3: Nube (OpenAI, Anthropic, etc.)

ServicioCoste mensualCoste 2 años
ChatGPT Plus20€/mes480€
Claude Pro20€/mes480€
GitHub Copilot10€/mes240€
Total suscripciones50€/mes1.200€
PC + RTX 30900€ (electricidad ~10€/mes)~850€

En menos de dos años, tu servidor local se habrá amortizado. Y sigue siendo tuyo, con tus datos en tu casa, sin depender de políticas de uso ni cortes de servicio.

Guía de compra: Cómo encontrar una RTX 3090 de segunda mano

La RTX 3090 fue lanzada en 2020, así que el mercado de segunda mano está maduro. Aquí tienes cómo minimizar riesgos:

Dónde buscar

Buscar RTX 3090 en eBay España | Ver RTX 3090 en Amazon

Precios orientativos (febrero 2025):

  • RTX 3090 usada: 600-800€
  • RTX 3090 TI usada: 700-900€
  • RTX 3090 nueva (stock residual): 1.200-1.400€

⚠️ DISCLAIMER IMPORTANTE: Compra segura en eBay

Comprar hardware de segunda mano tiene riesgos. Sigue estas reglas:

  1. Verifica la reputación del vendedor: Mínimo 95% de valoraciones positivas y al menos 50 transacciones. Evita vendedores nuevos sin historial.
  2. Lee todas las opiniones: Busca específicamente valoraciones negativas recientes. Un patrón de quejas similares es bandera roja.
  3. Comprueba el país de origen: Compras fuera de la UE pueden tener aranceles e IVA aduanero. Una RTX 3090 de 700€ desde China puede costarte 950€ tras aduanas.
  4. Pregunta antes de comprar: Envía mensaje al vendedor preguntando por el historial de uso (¿minado?, ¿garantía restante?, ¿caja incluida?)
  5. Paga con protección: Usa PayPal o métodos con protección al comprador. Nunca transferencias bancarias directas.
  6. Documenta al recibir: Graba un video al abrir el paquete. Si la GPU está dañada, el video es tu evidencia.
  7. Prueba inmediata: Instala y corre benchmarks (FurMark, 3DMark) las primeras 24 horas para detectar artefactos o inestabilidad.

eBay ofrece garantía de devolución de 30 días en la mayoría de artículos. Úsala si algo no funciona correctamente.

Señales de alerta en anuncios

  • Fotos genéricas de stock (no de la unidad real)
  • Precios sustancialmente por debajo del mercado (>100€ de diferencia)
  • Vendedor que no responde preguntas específicas
  • Descripción vaga: «funciona perfecto» sin detalles
  • Envío solo a ciertos países o métodos extraños

Consumo eléctrico y rentabilidad real

Un servidor de IA local consume electricidad. Hagamos números honestos:

EscenarioConsumoCoste mensual*
Reposo 24/7100W~8€
Uso moderado (4h/día carga)Media 150W~12€
Uso intensivo (8h/día carga)Media 250W~20€

*Precio estimado 0.15€/kWh. Ajusta según tu tarifa eléctrica.

Incluso con uso intensivo, el coste eléctrico mensual (~20€) es menor que una suscripción ChatGPT Plus (20€/mes). Y recuerda: el servidor no expira.

Stack completo recomendado

Más allá de Ollama, aquí tienes herramientas que potencian tu servidor:

  • WebUI: Open WebUI — interfaz tipo ChatGPT para Ollama
  • API compatible: Ollama expone API OpenAI-compatible para integrar con cualquier app
  • Vector DB: ChromaDB o Qdrant para RAG (búsqueda en tus documentos)
  • Agentes: n8n o LangChain para automatizaciones con IA local

Con esta configuración, puedes sustituir completamente Claude para análisis de documentos, Copilot para programación, y ChatGPT para conversación general.

Veredicto final: ¿Para quién es esta configuración?

Elige PC viejo + RTX 3090 si:

  • Tienes un PC decente en desuso
  • Valoras la privacidad de tus datos
  • Usas IA diariamente (programación, escritura, análisis)
  • No te importa el ruido moderado de ventiladores
  • Buscas la mejor relación calidad/precio pura

Elige Mac mini M4 si:

  • El silencio es absolutamente prioritario
  • Tienes presupuesto amplio (1.200€+)
  • Prefieres macOS y ecosistema Apple
  • No quieres preocuparte de compatibilidades

Quédate en la nube si:

  • Usas IA ocasionalmente (menos de 10 horas/mes)
  • Necesitas los modelos más grandes (GPT-5, Claude 4.6 Opus)
  • No quieres mantener hardware

Para el entusiasta del homelab que ya paga 40-50€/mes en suscripciones de IA, montar un servidor local con RTX 3090 es una decisión económica que se paga sola en 18-24 meses. Y obtienes algo invaluable: independencia tecnológica.

Buscar RTX 3090 en Amazon | Buscar RTX 3090 en eBay

Precios y especificaciones sujetos a cambio. Verificar en web oficial del fabricante. Este artículo contiene enlaces de afiliado — si compras a través de ellos, nos ayudas a mantener el blog sin coste adicional para ti. La compra de hardware de segunda mano conlleva riesgos; investiga siempre al vendedor y usa plataformas con protección al comprador.

📚 Te puede interesar: Si quieres usar tu servidor IA para controlar tu casa inteligente

Sé el primero en comentar

Dejar una contestacion

Tu dirección de correo electrónico no será publicada.


*