
¿Cuánto llevas pagando por suscripciones a ChatGPT, Claude o Copilot? Si llevas más de un año usando IA en la nube, probablemente hayas gastado lo suficiente como para haber montado tu propio servidor local. Y aquí viene la sorpresa: no necesitas hardware nuevo. Ese PC viejo que tienes en el trastero, con una RTX 3090 de segunda mano, puede convertirse en el centro neurálgico de IA para tu homelab. Una inversión única que te liberará de suscripciones mensuales para siempre.
Por qué la RTX 3090 es el arma secreta del IA local en 2026
La NVIDIA GeForce RTX 3090 con sus 24GB de VRAM GDDR6X sigue siendo, en 2026, la tarjeta gráfica con mejor relación calidad/precio para ejecutar modelos de lenguaje grandes localmente. ¿Por qué? Porque los modelos de IA actuales han crecido en capacidad, pero también en eficiencia. Hoy puedes ejecutar modelos de 20-30 mil millones de parámetros con cuantización que ofrecen un rendimiento comparable a GPT-5, todo en una GPU que puedes encontrar por menos de la mitad de su precio de lanzamiento.
Los 24GB de VRAM son el punto óptimo para el entusiasta del IA local. No es casualidad que tanto la RTX 3090 como la RTX 4090 compartan esta cantidad de memoria: es el umbral donde los modelos Q4_K_M de 20-30B parámetros caben cómodamente, ofreciendo un equilibrio perfecto entre calidad de respuesta y velocidad de inferencia.
| Característica | Especificación |
|---|---|
| GPU | NVIDIA RTX 3090 (24GB GDDR6X) |
| PC recomendado | Intel 6th gen+ / AMD Ryzen 2000+ |
| RAM mínima | 32GB DDR4 (64GB recomendado) |
| Almacenamiento | 500GB NVMe SSD (modelos ocupan 12-20GB) |
| Fuente de alimentación | 750W 80 Plus Gold mínimo |
| Consumo total | 350-450W en carga, 80-120W reposo |
| Conectividad | 1GbE (recomendado 2.5GbE+ para transferencias) |
Montaje paso a paso: De PC viejo a servidor de IA
El hardware que necesitas
El requisito mínimo es sorprendentemente bajo. Cualquier PC con un PCIe 3.0 x16 funciona:
- CPU: Intel Core i5-6500 o superior / AMD Ryzen 5 2600 o superior
- Placa base: Con slot PCIe x16 y alimentación auxiliar de 8+8 pines
- RAM: 32GB DDR4 (funciona con 16GB, pero limita contexto largo)
- Almacenamiento: SSD NVMe de 500GB+ para modelos y datos
- Fuente: 750W con cables PCIe dedicados (la 3090 consume 350W)
El truco está en que no necesitas CPU potente. El procesador solo gestiona la carga/descarga de modelos; todo el trabajo pesado de inferencia lo hace la GPU. Un Core i3 de décima generación es suficiente.
Instalación de Ollama en Ubuntu: Guía rápida
Ollama es la plataforma más sencilla para ejecutar modelos LLM localmente. Convierte la complejidad de gestionar dependencias CUDA, cuantización y contextos en un simple ollama run modelo.
Paso 1: Preparar Ubuntu Server
Instala Ubuntu Server 22.04 LTS o 24.04 LTS. La versión server consume menos recursos que el escritorio:
# Actualizar el sistema
sudo apt update && sudo apt upgrade -y
# Instalar dependencias necesarias
sudo apt install -y curl wget git build-essential
# Instalar drivers NVIDIA (versión más reciente)
sudo apt install -y nvidia-driver-535
sudo rebootPaso 2: Verificar la GPU
Después del reinicio, confirma que Ubuntu reconoce la RTX 3090:
nvidia-smiDeberías ver información de tu RTX 3090 con los 24GB de memoria detectados.
Paso 3: Instalar Ollama
# Instalación oficial de Ollama
curl -fsSL https://ollama.com/install.sh | sh
# Verificar instalación
ollama --versionPaso 4: Configurar acceso remoto (opcional pero recomendado)
Para acceder desde otros dispositivos de tu red:
# Editar el servicio de systemd
sudo systemctl edit ollama.service
# Añadir estas líneas:
[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
# Recargar y reiniciar
sudo systemctl daemon-reload
sudo systemctl restart ollamaPaso 5: Descargar y ejecutar tu primer modelo
# Descargar y ejecutar GPT-OSS 20B
ollama run gpt-oss:20b
# O Qwen3-Coder 30B para programación
ollama run qwen3-coder:30bLa primera descarga tardará varios minutos dependiendo de tu conexión. Los modelos se almacenan en /usr/share/ollama/.ollama/models/.
Modelos recomendados para 24GB VRAM
Con 24GB de VRAM tienes acceso a los modelos más capaces disponibles en código abierto. Estos son mis dos recomendaciones principales:
gpt-oss:20b — El todo-terreno
Cuándo usarlo: Para tareas generales, redacción, análisis de documentos, brainstorming y conversaciones complejas. Es el modelo más equilibrado en términos de calidad/velocidad para hardware doméstico.
- Tamaño: ~12-13GB en cuantización Q4_K_M
- Velocidad: 15-25 tokens/segundo en RTX 3090
- Contexto: Hasta 128K tokens (con configuración)
- Ideal para: Chat general, resumen de textos, razonamiento
Ejecuta con: ollama run gpt-oss:20b
qwen3-coder:30b — El especialista en código
Cuándo usarlo: Para programación, debugging, explicación de código, generación de scripts y tareas técnicas. Ofrece capacidades cercanas a Copilot o Cursor pero completamente privadas.
- Tamaño: ~18-20GB en cuantización Q4_K_M
- Velocidad: 10-18 tokens/segundo en RTX 3090
- Contexto: 32K tokens nativo, ampliable
- Ideal para: Desarrollo de software, análisis de código, automatización
Ejecuta con: ollama run qwen3-coder:30b
La magia de tener ambos es poder cambiar de modelo según la tarea. Para una consulta rápida de código, qwen3-coder. Para redactar un email complejo, gpt-oss. Todo sin salir de tu red local.
Comparativa: ¿Qué alternativas hay y por qué son peores?
Antes de que saltes a comprar hardware, veamos honestamente qué otras opciones existen y por qué la combinación PC viejo + RTX 3090 gana en la mayoría de casos:
Opción 1: Mac mini M4 (32GB/64GB)
El Mac mini M4 es el competidor más directo. Es silencioso, eficiente y ejecuta modelos decentes en su memoria unificada.
| Característica | Mac mini M4 32GB | Mac mini M4 64GB | PC + RTX 3090 |
|---|---|---|---|
| Precio aproximado | 1.199€ | 2.199€ | 600-900€ (GPU) + PC existente |
| Memoria para IA | Compartida 32GB | Compartida 64GB | Dedicada 24GB GDDR6X |
| Ancho de banda memoria | ~120 GB/s | ~120 GB/s | 936 GB/s |
| Velocidad inferencia | Moderada | Moderada | Rápida (CUDA optimizado) |
| Expandibilidad | Ninguna | Ninguna | Total |
| Consumo | ~20W | ~20W | 350-450W |
| Ruido | Silencioso | Silencioso | Moderado-alto |
Veredicto: El Mac mini M4 es excelente si valoras el silencio y la eficiencia energética por encima de todo. Pero para rendimiento bruto de IA, la RTX 3090 ofrece 7-8x más ancho de banda de memoria y compatibilidad CUDA que acelera drásticamente la inferencia. Además, el Mac mini con 64GB cuesta más del doble que una RTX 3090 usada.
Opción 2: GPU nueva (RTX 4090/5090)
La RTX 4090 ofrece el mismo 24GB que la 3090 pero con arquitectura Ada Lovelace más eficiente. La RTX 5090 promete más VRAM pero:
- RTX 4090: ~1.800-2.000€ nueva (misma VRAM, ~40% más rápida)
- RTX 5090: Precio desconocido, probablemente >2.500€
- RTX 3090 usada: 600-900€
A menos que el consumo eléctrico sea crítico para ti, la 3090 usada ofrece el 70% del rendimiento de una 4090 al 40% del precio.
Opción 3: Nube (OpenAI, Anthropic, etc.)
| Servicio | Coste mensual | Coste 2 años |
|---|---|---|
| ChatGPT Plus | 20€/mes | 480€ |
| Claude Pro | 20€/mes | 480€ |
| GitHub Copilot | 10€/mes | 240€ |
| Total suscripciones | 50€/mes | 1.200€ |
| PC + RTX 3090 | 0€ (electricidad ~10€/mes) | ~850€ |
En menos de dos años, tu servidor local se habrá amortizado. Y sigue siendo tuyo, con tus datos en tu casa, sin depender de políticas de uso ni cortes de servicio.
Guía de compra: Cómo encontrar una RTX 3090 de segunda mano
La RTX 3090 fue lanzada en 2020, así que el mercado de segunda mano está maduro. Aquí tienes cómo minimizar riesgos:
Dónde buscar
Buscar RTX 3090 en eBay España | Ver RTX 3090 en Amazon
Precios orientativos (febrero 2025):
- RTX 3090 usada: 600-800€
- RTX 3090 TI usada: 700-900€
- RTX 3090 nueva (stock residual): 1.200-1.400€
⚠️ DISCLAIMER IMPORTANTE: Compra segura en eBay
Comprar hardware de segunda mano tiene riesgos. Sigue estas reglas:
- Verifica la reputación del vendedor: Mínimo 95% de valoraciones positivas y al menos 50 transacciones. Evita vendedores nuevos sin historial.
- Lee todas las opiniones: Busca específicamente valoraciones negativas recientes. Un patrón de quejas similares es bandera roja.
- Comprueba el país de origen: Compras fuera de la UE pueden tener aranceles e IVA aduanero. Una RTX 3090 de 700€ desde China puede costarte 950€ tras aduanas.
- Pregunta antes de comprar: Envía mensaje al vendedor preguntando por el historial de uso (¿minado?, ¿garantía restante?, ¿caja incluida?)
- Paga con protección: Usa PayPal o métodos con protección al comprador. Nunca transferencias bancarias directas.
- Documenta al recibir: Graba un video al abrir el paquete. Si la GPU está dañada, el video es tu evidencia.
- Prueba inmediata: Instala y corre benchmarks (FurMark, 3DMark) las primeras 24 horas para detectar artefactos o inestabilidad.
eBay ofrece garantía de devolución de 30 días en la mayoría de artículos. Úsala si algo no funciona correctamente.
Señales de alerta en anuncios
- Fotos genéricas de stock (no de la unidad real)
- Precios sustancialmente por debajo del mercado (>100€ de diferencia)
- Vendedor que no responde preguntas específicas
- Descripción vaga: «funciona perfecto» sin detalles
- Envío solo a ciertos países o métodos extraños
Consumo eléctrico y rentabilidad real
Un servidor de IA local consume electricidad. Hagamos números honestos:
| Escenario | Consumo | Coste mensual* |
|---|---|---|
| Reposo 24/7 | 100W | ~8€ |
| Uso moderado (4h/día carga) | Media 150W | ~12€ |
| Uso intensivo (8h/día carga) | Media 250W | ~20€ |
*Precio estimado 0.15€/kWh. Ajusta según tu tarifa eléctrica.
Incluso con uso intensivo, el coste eléctrico mensual (~20€) es menor que una suscripción ChatGPT Plus (20€/mes). Y recuerda: el servidor no expira.
Stack completo recomendado
Más allá de Ollama, aquí tienes herramientas que potencian tu servidor:
- WebUI: Open WebUI — interfaz tipo ChatGPT para Ollama
- API compatible: Ollama expone API OpenAI-compatible para integrar con cualquier app
- Vector DB: ChromaDB o Qdrant para RAG (búsqueda en tus documentos)
- Agentes: n8n o LangChain para automatizaciones con IA local
Con esta configuración, puedes sustituir completamente Claude para análisis de documentos, Copilot para programación, y ChatGPT para conversación general.
Veredicto final: ¿Para quién es esta configuración?
Elige PC viejo + RTX 3090 si:
- Tienes un PC decente en desuso
- Valoras la privacidad de tus datos
- Usas IA diariamente (programación, escritura, análisis)
- No te importa el ruido moderado de ventiladores
- Buscas la mejor relación calidad/precio pura
Elige Mac mini M4 si:
- El silencio es absolutamente prioritario
- Tienes presupuesto amplio (1.200€+)
- Prefieres macOS y ecosistema Apple
- No quieres preocuparte de compatibilidades
Quédate en la nube si:
- Usas IA ocasionalmente (menos de 10 horas/mes)
- Necesitas los modelos más grandes (GPT-5, Claude 4.6 Opus)
- No quieres mantener hardware
Para el entusiasta del homelab que ya paga 40-50€/mes en suscripciones de IA, montar un servidor local con RTX 3090 es una decisión económica que se paga sola en 18-24 meses. Y obtienes algo invaluable: independencia tecnológica.
Buscar RTX 3090 en Amazon | Buscar RTX 3090 en eBay
Precios y especificaciones sujetos a cambio. Verificar en web oficial del fabricante. Este artículo contiene enlaces de afiliado — si compras a través de ellos, nos ayudas a mantener el blog sin coste adicional para ti. La compra de hardware de segunda mano conlleva riesgos; investiga siempre al vendedor y usa plataformas con protección al comprador.
Dejar una contestacion