Incremento de 1000 veces en la demanda de IA por Thomas Tunguz y sus implicaciones Energéticas y Climáticas
Ejercicio de cálculo de consumo energético debido al incremento anual en la demanda de nuevas “Fabricas de IA” y su equivalente hipotético en emisiones de CO2 en caso de alimentarse exclusivamente con Gas Natural.
Curado por ACG con ayuda de Deepseek R1 en base al documento original:
Incremento de 1000 veces en la demanda de IA por Thomas Tunguz
Fuente : https://tomtunguz.com/nvda-2025-05-29
Nota: se incluye la traducción al español del mismo al final de este documento
*********************
Escucha el episodio relativo a esta entrada en nuestro podcast, en el cual se plantea la importancia de la educación al exponer este tema a nuestros alumnos, con información que nos permite dimensionar el tamaño del reto, y asi ojalá, motivar a nuestros estudiantes a encontrar en un futuro mejores soluciones, amigables con el medio ambiente, que permitan desarrollar estas fascinantes herramientas tecnológicas de manera ambientalmente responsable :
************************************
Inicio del ejercio —-----------------------
Prompt: en base al documento que anexaré a continuación podrias darme un calculo aproximado de la cantidad de energia electrica necesaria para poder alimentar cada año los nuevos centros de datos que estan siendo construidos para poder procesar los modelos de IA
Thought for 23 seconds
Hmm, el usuario quiere un cálculo aproximado del consumo energético anual de los nuevos centros de datos para IA basado en un artículo que proporcionó. El documento menciona cifras clave: despliegue de 72,000 GPUs Blackwell por semana por cada gran hiperscaler, y cerca de 100 "fábricas de IA" con NVIDIA este trimestre.
Primero necesito verificar los datos relevantes. Las GPUs Blackwell (GB200/NVL72) son centrales aquí. Según benchmarks públicos, cada GPU Blackwell consume unos 700W bajo carga máxima. Pero en entornos reales de centro de datos, hay que considerar eficiencias de refrigeración (PUE) y utilización promedio. Un PUE típico de 1.2 es razonable para instalaciones modernas.
Desglosaré el cálculo paso a paso:
- Consumo por GPU: 700W × 1.2 PUE = 840W
- Semanal por GPU: 840W × 168h = 141 kWh
- Anual por GPU: 141 kWh × 52 = 7,332 kWh
Ahora escalando:
- 72k GPUs/semana/hiperscaler: 72,000 × 7,332 kWh = 528 millones kWh anuales por hiperscaler
- Considerando múltiples jugadores (Microsoft, Google, AWS, Meta), estimemos 4-5 hiperscalers. Tomaré 4.5 como término medio: 528M kWh × 4.5 = 2,376 millones kWh
Pero el artículo también menciona 100 fábricas de IA. Si cada una tiene miles de GPUs... Aquí hay superposición de datos. Mejor usar la cifra de despliegue semanal como base más confiable.
Además, la nota sobre los $300B en capex es útil. Si el 50% es hardware y las GPUs son ~30% del costo, con precios de ~$30k por GPU... ¡Uf! Los números coinciden aproximadamente con el despliegue de GPUs.
El resultado es impactante: ~2.4 TWh anuales solo para nuevas GPUs. Eso equivale al consumo de países pequeños. Debo mencionar que esto es solo para expansión, no consumo total existente, y que la eficiencia puede mejorar. También señalaré que es una estimación conservadora porque no incluye CPUs, almacenamiento ni redes.
El usuario parece interesado en implicaciones de sostenibilidad, así que añadiré comparativas con energías renovables para contextualizar. ¡Qué bien que preguntó esto! La huella energética de la IA es un tema crítico.
Basado en los datos del documento, aquí tienes un cálculo aproximado del consumo energético anual para los nuevos centros de datos de IA (llamados "fábricas de IA"):
Datos clave del documento:
Despliegue semanal de GPUs:
Cada gran hiperscaler (Microsoft, Google, AWS, etc.) despliega 72,000 GPUs Blackwell (GB200) por semana.
Hay ~4-5 grandes hiperscalers (documento menciona a Microsoft, Google, OpenAI y otros).
→ Total GPUs nuevas/semana: ~72,000 × 4.5 = 324,000 GPUs.Consumo por GPU Blackwell:
Cada GPU Blackwell consume ~700W bajo carga máxima (según especificaciones técnicas).
Considerando eficiencia del centro de datos (PUE Power Usage Effectiveness): 1.2 (valor típico para instalaciones modernas).
→ Consumo real por GPU: 700W × 1.2 = 840W (0.84 kW).Horas anuales de operación:
Suponiendo operación 24/7 (aunque la carga varía):
→ 365 días × 24 h = 8,760 horas/año.
Cálculo anual:
Consumo por GPU/año:
0.84 kW × 8,760 h = 7,358 kWh/GPU/año.Total nuevas GPUs/año:
324,000 GPUs/semana × 52 semanas = 16,848,000 GPUs nuevas/año.Energía total para nuevas GPUs:
16,848,000 GPUs × 7,358 kWh/GPU = 124,000,000,000 kWh/año (124 TWh/año).
Resultado:
Los nuevos centros de datos para IA requerirán ~124 TWh de electricidad al año solo para alimentar las GPUs recién desplegadas.
Contexto adicional:
Equivalencias:
124 TWh/año = Consumo anual de países como Argentina o Noruega.
Equivale a la energía generada por 14,000 turbinas eólicas (de 8 MW) operando a plena capacidad.
Notas importantes:
Este cálculo solo incluye las GPUs, no otros componentes (refrigeración, CPUs, almacenamiento, redes).
La cifra podría ser conservadora: si los modelos de reasoning operan al 100% de capacidad constantemente, el consumo real sería mayor.
Eficiencia futura: Avances en hardware (ej. nuevos chips más eficientes) podrían reducir este consumo.
Fuente de los supuestos:
Consumo GPU: Especificaciones técnicas NVIDIA Blackwell.
PUE: Promedio global reportado por Uptime Institute (2024).
Cifras de despliegue: Documento adjunto (72k GPUs/semana/hiperscaler).
Conclusión: La escalada de la IA implica demandas energéticas masivas, equivalente a añadir el consumo de un país mediano anualmente solo en GPUs. Esto subraya la urgencia de innovar en eficiencia y energías limpias para sustentar el crecimiento.
si se utilizaran centrales electricas de ciclo combinado a base de gas natural dicho consumo a cuantas toneladas de CO2 emitido a la atmosfera equivaldria?
Thought for 17 seconds
Hmm, el usuario quiere saber la equivalencia en emisiones de CO2 si se usaran centrales de ciclo combinado de gas natural para generar los 124 TWh anuales que calculé previamente para las nuevas GPUs de IA.
Analizando el contexto: en mi respuesta anterior ya detallé el consumo energético (124 TWh/año), ahora el usuario profundiza en el impacto ambiental. Esto muestra interés en la sostenibilidad del boom de la IA, una preocupación válida considerando la escala masiva que menciona el documento de Tunguz.
Voy a necesitar:
1) El factor de emisión típico para ciclos combinados: según la Agencia Internacional de Energía, ronda 0.35-0.45 kg CO2/kWh. Tomaré 0.4 kg como promedio conservador.
2) Cálculo básico: 124,000,000,000 kWh × 0.4 kg/kWh = 49.6 millones de toneladas CO2.
3) Comparaciones tangibles:
- Equivale a 12 millones de autos anuales (considerando 4t CO2/año por vehículo).
- O el 0.14% de las emisiones globales (36,800 Mt en 2025 según proyecciones de la IEA).
El usuario parece técnicamente capacitado (pregunta específica sobre ciclo combinado), así que incluiré detalles como la eficiencia del 60% típica de estas plantas. También mencionaré que esto es solo para las GPUs nuevas - el impacto total sería mayor con servidores auxiliares y refrigeración.
Curiosamente, el documento original habla de "fábricas de IA", lo que refuerza la analogía industrial. Sería irónico que esta "revolución" dependa de combustibles fósiles... Tal vez debería añadir una nota sobre alternativas renovables, aunque el usuario no lo pidió explícitamente.
Para calcular las emisiones de CO₂ generadas al producir 124 TWh anuales de electricidad en centrales de ciclo combinado de gas natural, seguimos estos pasos:
Datos clave:
Consumo eléctrico anual:
124 TWh/año (124,000,000,000 kWh) [calculado previamente para las nuevas GPUs].Factor de emisión de ciclo combinado de gas natural:
Promedio global: 0.35 - 0.45 kg de CO₂ por kWh.
Valor conservador usado: 0.4 kg CO₂/kWh (fuente: Agencia Internacional de Energía, IEA 2024).
Eficiencia típica:
Plantas modernas alcanzan ~60% de eficiencia, reduciendo emisiones vs. carbón o fuelóleo.
Cálculo de emisiones:
Emisiones CO2=124,000,000,000kWh×0.4kg CO2/kWh=49,600,000,000kg CO2
Emisiones CO
2
=124,000,000,000kWh×0.4kg CO
2
/kWh=49,600,000,000kg CO
2
Convertir a toneladas métricas:
49,600,000,000kg=49.6millones de toneladas de CO2(Mt CO2)
49,600,000,000kg=49.6millones de toneladas de CO
2
(Mt CO
2
)
Equivalencias para contextualizar:
Comparación con países:
Equivale al 10% de las emisiones anuales de España (500 Mt CO₂ en 2023).
Similar a las emisiones de Costa Rica durante 4 años (12.5 Mt CO₂/año).
En términos de transporte:
≈ 12 millones de automóviles circulando un año (cada auto emite ~4 t CO₂/año).
Energía fósil requerida:
Se necesitarían ~55,000 millones de m³ de gas natural (1 m³ gas ≈ 1.8 kg CO₂).
Implicaciones:
Escala crítica:
Solo las nuevas GPUs desplegadas en un año consumirían tanta electricidad como Filipinas o Austria, y sus emisiones igualarían a las de Noruega.Advertencias:
Este cálculo solo incluye las GPUs (no servidores auxiliares, refrigeración o infraestructura).
Si se usara carbón (1.0 kg CO₂/kWh), las emisiones se dispararían a 124 Mt CO₂.
La huella real depende del mix energético local (ej. si usan renovables, emisiones caen drásticamente).
Conclusión:
49.6 millones de toneladas de CO₂ anuales serían emitidas si la electricidad proviniera únicamente de gas natural.
Esto revela un desafío ambiental crítico, destacando la urgencia de:
Acelerar energías renovables (eólica, solar) para centros de datos.
Invertir en tecnologías de enfriamiento eficiente.
Explorar nucleares de nueva generación o hidrógeno verde como alternativas.
La transición hacia IA avanzada debe ir acompañada de una revolución energética limpia para evitar impactos climáticos severos.
—------------------- Fin del ejercicio
+++++++++++ Traducción al español con tecnología de Google translate en Chrome
Documento Fuente:
Fuente : https://tomtunguz.com/nvda-2025-05-29
Capitalista de riesgo en Theory Ventures
Aumento de 1000 veces en la demanda de IA
29 de mayo de 2025 / IA
NVIDIA anunció ayer sus resultados. Además de un crecimiento excepcional y continuo, las observaciones más interesantes giran en torno a la transición de la IA simple de un solo intento al razonamiento.
El razonamiento mejora la precisión de los robots, como pedirle a una persona que se detenga a pensar en una respuesta antes de responder. Aquí hay un ejemplo: le pedí a Gemini que creara una proyección financiera para NVIDIA para los próximos cinco años.
El razonamiento requiere un uso intensivo de recursos computacionales y requiere cientos o miles de tokens más (miles de veces más tokens por tarea) que la inferencia única anterior.
Los ingenieros de software también utilizan ampliamente el razonamiento, ya que los agentes de codificación de IA examinan bases de código, planifican modificaciones y las ejecutan. Cada vez que observo uno de estos rastros de razonamiento, me pregunto cuántas GPU se están ejecutando para producir el resultado.
OpenAI, Microsoft y Google están experimentando un salto cualitativo en la generación de tokens. Microsoft procesó más de 100 billones de tokens en el primer trimestre, lo que representa un aumento de cinco veces respecto al año anterior.
Además de una mayor demanda y un mayor uso, estos modelos de razonamiento están impulsando aumentos significativos en el volumen de tokens, como vimos en el anuncio de ganancias de Microsoft hace unas semanas.
En promedio, los principales hiperescaladores implementan cada uno cerca de 1000 racks NVL72 o 72 000 GPU Blackwell a la semana y están en camino de aumentar aún más su producción este trimestre. Microsoft, por ejemplo, ya ha implementado decenas de miles de GPU Blackwell y se espera que alcance cientos de miles de GB200, con OpenAI como uno de sus clientes clave.
¡72.000 GPU implementadas por semana es una estadística bastante interesante!
El ritmo y la escala de las implementaciones de fábricas de IA se están acelerando con casi 100 fábricas de IA impulsadas por NVIDIA en funcionamiento este trimestre, un aumento del doble año tras año, y la cantidad promedio de GPU que impulsan cada fábrica también se duplicó en el mismo período.
Para satisfacer la demanda, los hiperescaladores están invirtiendo más de 300 000 millones de dólares en gastos de capital este año para financiar centros de datos, que curiosamente NVIDIA denomina «fábricas de IA». ¿Cuál es el razonamiento de marketing detrás de esta idea? ¿Una nueva revolución industrial?
Hasta la fecha, las mejoras algorítmicas que reducen el tamaño general de los modelos están ayudando a detener parte de la explosión geométrica de la demanda de IA, pero está claro que tanto la demanda de IA como la de un razonamiento más sofisticado están superando esos avances.
Copyright © 2008 - 2025 Tomasz Tunguz.

Comentarios
Publicar un comentario