Qué es una GPU, por qué Nvidia vale más que casi nadie y qué tienen en común Bitcoin y la IA

10 de enero de 2026
Por MUVO
Compartir
Qué es una GPU, por qué Nvidia vale más que casi nadie y qué tienen en común Bitcoin y la IA

Hay tres palabras que aparecen constantemente en la conversación tecnológica de los últimos años y que muy poca gente puede explicar con claridad: GPU, Nvidia y Bitcoin. Las tres están conectadas de una forma que, cuando se entiende, hace que todo encaje: el boom de las criptomonedas, el disparo de las acciones de Nvidia, el auge de la inteligencia artificial y el debate sobre el consumo de electricidad.

Este artículo lo explica todo desde cero. No hacen falta conocimientos previos. Solo ganas de entender.


Empecemos por lo más básico: ¿qué es una GPU?

Todos los ordenadores tienen un procesador, la pieza que hace los cálculos. Durante décadas, ese procesador fue la CPU (Central Processing Unit, o Unidad Central de Procesamiento). La CPU es como un matemático muy listo que resuelve problemas complejos uno detrás de otro, muy rápido, en secuencia.

Pero en los años noventa, los videojuegos empezaron a necesitar algo diferente. Renderizar un paisaje en 3D en tiempo real no requiere resolver un problema difícil: requiere resolver millones de problemas simples al mismo tiempo. Calcular el color de cada uno de los millones de píxeles de la pantalla, simultáneamente, varias veces por segundo.

Para eso, la CPU no estaba diseñada. Así que se inventó la GPU (Graphics Processing Unit, o Unidad de Procesamiento Gráfico): un chip especializado en hacer miles de cálculos sencillos en paralelo. Si la CPU es un matemático brillante resolviendo problemas uno a uno, la GPU es un estadio lleno de miles de calculadoras trabajando al mismo tiempo.

El nombre lo dice: estaba pensada para gráficos. Pero nadie imaginaba lo que estaba a punto de ocurrir.


Nvidia: la empresa que fabricó el chip del futuro sin saberlo

Nvidia fue fundada en 1993 en Santa Clara, California, por Jensen Huang, Chris Malachowsky y Curtis Priem. Su idea era simple: los videojuegos iban a necesitar chips gráficos cada vez más potentes, y ellos iban a fabricarlos.

En 1999 lanzaron la GeForce 256, considerada oficialmente el primer procesador gráfico moderno. Ese mismo año, la empresa salió a bolsa en el NASDAQ a un precio que hoy resulta casi cómico: aproximadamente 0,03-0,04 dólares por acción (ajustado por los múltiples splits posteriores).

Durante la siguiente década, Nvidia creció fabricando tarjetas gráficas para videojuegos. Un negocio bueno, pero sin más. Nada que anticipara lo que vendría.

En 2006, Nvidia lanzó CUDA, una plataforma de programación que permitía usar sus GPUs para cualquier tipo de cálculo, no solo gráficos. Unos años después, en 2008-2009, apareció OpenCL, un estándar abierto que extendía esa posibilidad a otros fabricantes. En ese momento, algunos investigadores se dieron cuenta de algo crucial: la GPU, diseñada para renderizar videojuegos, era exactamente el tipo de hardware que necesitaban para entrenar redes neuronales artificiales.

Nvidia no planeó esto. Simplemente había construido el chip que el futuro necesitaba.


El primer boom inesperado: las criptomonedas (y sobre todo, Ethereum)

Pero antes de que llegara la inteligencia artificial, llegó algo más inmediato: las criptomonedas.

Para entender la conexión, hay que entender brevemente qué es minar Bitcoin.

Cuando alguien hace una transacción en Bitcoin, esa transacción necesita ser verificada y añadida al registro público (la famosa blockchain o cadena de bloques). La verificación no la hace ningún banco ni ninguna autoridad central. La hacen miles de ordenadores en todo el mundo que compiten entre sí resolviendo un puzzle matemático muy difícil. El primero en resolverlo añade el bloque al registro y recibe como recompensa una cantidad de Bitcoin.

Ese proceso se llama minado, por analogía con minar oro: gastas energía y recursos para extraer algo valioso.

Al principio, en 2009 y 2010, el puzzle de Bitcoin se podía resolver con un ordenador doméstico normal. Después, con GPUs. Pero ya en 2013 aparecieron los ASICs (chips diseñados específicamente y exclusivamente para minar Bitcoin), que eran tan superiores que las GPUs dejaron de ser competitivas para Bitcoin.

Sin embargo, otra criptomoneda, Ethereum, usaba un algoritmo diferente llamado Ethash, diseñado deliberadamente para que los ASICs no tuvieran ventaja. Ethash requería acceder constantemente a grandes cantidades de memoria, algo que las GPUs de consumo hacían muy bien. Resultado: Ethereum era, de facto, la criptomoneda de las GPUs.

Entre 2017 y 2021, durante los grandes booms del mercado cripto, las granjas de minado compraron tarjetas gráficas de Nvidia por millones. Salas enteras llenas de GPUs —RTX 3080, RTX 3090— funcionando las 24 horas, los 365 días del año, minando mayoritariamente Ethereum. Hacía tanto calor que necesitaban sistemas de refrigeración industriales. Consumían tanta electricidad que en Teherán, Irán, las granjas de minado llegaron a consumir 450 megavatios en picos de demanda, suficiente para dar electricidad a una ciudad de 100.000 personas, provocando cortes de luz en la capital.

Fuente: Hardzone, "Consumo de minería de criptomonedas: 450 MW, dejan sin luz una ciudad"

El resultado para Nvidia fue un negocio extraordinario y, al mismo tiempo, un problema. Los jugadores de videojuegos no podían encontrar tarjetas gráficas en las tiendas porque los mineros las compraban todas. Nvidia llegó incluso a lanzar una línea de chips específica para mineros (CMP, Cryptocurrency Mining Processor) e intentó limitar artificialmente la capacidad de minado de sus tarjetas para gamers, intentando separar ambos mercados. Ambas medidas tenían como objetivo principal el mercado de Ethereum.

Fuente: Xataka, "Nvidia lanza CMP, una gráfica sin gráficos que solo sirve para minar criptodivisas"


El colapso cripto y lo que vino después

En 2022, el mercado de criptomonedas colapsó. Bitcoin cayó más de un 70% desde sus máximos. Y lo más importante para Nvidia: Ethereum cambió su sistema de verificación por uno llamado proof of stake, que no requería GPUs para minar. Las granjas se vaciaron. Las tarjetas gráficas de segunda mano inundaron el mercado a precios ridículos.

Las acciones de Nvidia cayeron un 66,5% entre noviembre de 2021 y octubre de 2022.

Y entonces llegó ChatGPT.


El segundo boom, mucho más grande: la inteligencia artificial

En noviembre de 2022, OpenAI lanzó ChatGPT al público general. En pocas semanas, se convirtió en el producto de software de más rápido crecimiento de la historia. Y para funcionar, necesitaba hardware. Mucho hardware.

Entrenar un modelo de inteligencia artificial requiere hacer billones de multiplicaciones de matrices matemáticas: miles de millones de cálculos sencillos en paralelo. El mismo tipo de tarea para la que la GPU fue diseñada décadas antes.

OpenAI usó masivamente los chips de Nvidia para entrenar sus modelos. Y lo mismo hicieron Google, Microsoft, Meta, Amazon y prácticamente todas las grandes tecnológicas. De repente, todo el mundo necesitaba GPUs. Y el único fabricante con chips suficientemente potentes y con el ecosistema de software necesario era, de nuevo, Nvidia.

Los números son difíciles de procesar:

  • A principios de 2025, Nvidia controlaba aproximadamente el 85-88% del mercado de GPUs discretas (tarjetas gráficas dedicadas) para escritorio.
  • En el mercado específico de chips para IA, llegó a generar el 80% de todos los ingresos del sector en 2023.
  • En 2023, sus acciones subieron un 237%.
  • En 2024, subieron otro 173%.
  • Desde el mínimo del bear market de 2022, la acción se ha multiplicado por más de 15 veces.
  • En febrero de 2026, Nvidia tiene una capitalización bursátil de aproximadamente 3,15 billones de dólares, siendo una de las empresas más valiosas del mundo.

Fuente: CompaniesMarketCap, febrero 2026 y MyNewTrading, análisis NVDA

Para poner esa cifra en perspectiva: el PIB de España en 2024 fue de aproximadamente 1,5 billones de euros. Nvidia vale más del doble que España entera.


¿Por qué Nvidia y no otro fabricante?

AMD también fabrica GPUs. Intel también. La pregunta es legítima: ¿por qué Nvidia domina tan completamente?

La respuesta no es solo el hardware. Es el software.

En 2006, Nvidia lanzó CUDA con una visión a largo plazo: que los desarrolladores pudieran usar las GPUs para cualquier tipo de cálculo, no solo gráficos. Durante años, invirtió en que los investigadores de inteligencia artificial construyeran sus herramientas sobre CUDA. Cuando el boom de la IA llegó, toda la comunidad científica ya trabajaba con herramientas diseñadas para chips Nvidia. Cambiar de proveedor no era imposible, pero era caro y complicado.

AMD tiene chips competitivos en papel. Pero no tiene el ecosistema de software. Y en tecnología, el ecosistema casi siempre gana al hardware.


El elefante en la habitación: el consumo de electricidad

Cuando las granjas de Bitcoin consumían electricidad, la sociedad protestaba. Cuando los centros de datos de inteligencia artificial la consumen, la sociedad aplaude. Pero los números son incómodos de ignorar.

La red de Bitcoin consume entre 100 y 150 teravatios-hora (TWh) al año, según el Cambridge Centre for Alternative Finance. Eso equivale al consumo eléctrico anual de países como Argentina o Noruega.

La inteligencia artificial ya representa el 20% de toda la electricidad consumida por los centros de datos del mundo. Según investigadores de la Universidad Libre de Ámsterdam, para finales de 2025 la IA habrá superado al Bitcoin en consumo energético total. El consumo global de IA —sumando entrenamiento e inferencia de todos los modelos— se estima entre 100 y 300 TWh anuales para 2025, y las proyecciones apuntan a que podría alcanzar los 500 TWh antes de 2030 si el crecimiento continúa.

Y hay otro recurso que casi nadie menciona: el agua. Los servidores generan calor y necesitan refrigeración constante. Se estima que los sistemas de IA consumirán entre 312 y 765 mil millones de litros de agua en 2025, una cifra comparable al volumen total de agua embotellada que consume la humanidad en un año entero.

Fuente: Sergey Tereshkin, "El costo ecológico de la IA", diciembre 2025

El investigador Alex de Vries-Gao, fundador de Digiconomist y uno de los referentes en análisis del impacto ambiental de la tecnología, lo resume con claridad: "El dinero que los mineros de Bitcoin invirtieron para llegar a donde están es insignificante comparado con lo que Google, Microsoft y las grandes tecnológicas están invirtiendo en IA. Esto se está intensificando mucho más rápido y representa una amenaza mucho mayor para el medio ambiente."

Fuente: FayerWayer, "La IA ya consumiría más energía que Bitcoin", junio 2025

Las grandes tecnológicas son conscientes del problema. Las emisiones de CO2 de Google han aumentado un 48% desde 2019 debido a sus centros de datos de IA. Microsoft reportó un incremento del 30% en emisiones desde 2020 por la misma razón. Ambas empresas están invirtiendo en energías renovables y energía nuclear para alimentar sus infraestructuras, pero el crecimiento de la demanda va más rápido que la capacidad de descarbonizarla.

Fuente: Foro Económico Mundial, "IA y energía", 2024


Riesgos geopolíticos: la guerra de chips entre EE.UU. y China

Hay una dimensión de esta historia que rara vez se explica con claridad: Nvidia no puede vender sus chips más avanzados a China. Y eso está reconfigurando la industria tecnológica mundial.

Todo empieza en 2022, cuando el gobierno de Estados Unidos decidió que los chips de IA de alta gama eran tecnología estratégica, igual que los misiles o los submarinos. La lógica era simple: quien controla los chips más potentes controla el entrenamiento de los modelos de IA más avanzados. Y entrenar los modelos más avanzados podría dar ventajas militares, de vigilancia y de inteligencia que ninguna potencia quería ver en manos de un rival.

A partir de ese año, el Departamento de Comercio de EE.UU. empezó a publicar restricciones de exportación cada vez más estrictas. Primero prohibió vender a China chips como la A100 y la H100, los más potentes de Nvidia para IA. Nvidia intentó responder creando versiones especialmente degradadas para el mercado chino (la A800 y la H800), que técnicamente no superaban los umbrales prohibidos. En 2023, EE.UU. también prohibió esas versiones. En 2024, las restricciones se extendieron aún más, bloqueando prácticamente cualquier chip de IA de alto rendimiento.

El impacto es enorme. China era, antes de las restricciones, uno de los mercados más grandes de Nvidia. En 2022, representaba aproximadamente el 20-25% de sus ingresos totales. Perder ese mercado de golpe habría sido catastrófico. Pero la demanda occidental por IA fue tan explosiva que Nvidia lo absorbió casi sin acusar el golpe en sus cuentas.

Para China, en cambio, el problema es muy serio. Sin acceso a los chips más avanzados de Nvidia, sus empresas tecnológicas —Baidu, Alibaba, Huawei— tienen que desarrollar alternativas propias o conformarse con hardware menos potente. Huawei ha invertido enormes recursos en desarrollar su propio chip de IA, el Ascend 910B, que algunos analistas consideran competitivo en ciertos escenarios, aunque todavía por detrás de los chips de Nvidia en rendimiento y en ecosistema de software. La empresa china de chips SMIC intenta también producir semiconductores avanzados, aunque con varias generaciones de retraso respecto a las fábricas de TSMC en Taiwán (que fabrica los chips de Nvidia) o Samsung en Corea.

Aquí aparece otro elemento geopolítico: TSMC, la única empresa del mundo capaz de fabricar los chips más avanzados que Nvidia diseña, está en Taiwán. Si China decidiera algún día recuperar Taiwán por la fuerza —algo que el gobierno chino considera un asunto interno pendiente—, la cadena de suministro de chips globales se rompería de la noche a la mañana. Es por eso que EE.UU. ha invertido miles de millones en incentivar a TSMC para que construya fábricas en Arizona, y que la Unión Europea ha hecho lo propio para diversificar la producción en Europa.

La paradoja de todo esto es que las restricciones de exportación, pensadas para frenar a China, podrían estar acelerando su independencia tecnológica. Cuando no tienes acceso a la tecnología de otro, tienes dos opciones: resignarte o construir la tuya propia. China lleva años eligiendo la segunda. En enero de 2025, la empresa china DeepSeek sorprendió al mundo publicando un modelo de IA que rendía de forma comparable a los mejores modelos occidentales, pero entrenado supuestamente con muchos menos chips y a una fracción del coste. Si esa afirmación es cierta —hay debate sobre ella—, sugiere que las restricciones no son tan efectivas como Washington esperaba, y que forzar a China a innovar puede estar produciendo exactamente el resultado contrario al deseado.

Para Nvidia, la guerra de chips es un riesgo real pero manejable mientras la demanda occidental siga siendo tan alta. El verdadero riesgo llega si China logra crear un ecosistema propio de chips y software para IA lo suficientemente competitivo como para que el resto del mundo —especialmente el Sur Global— empiece a preferirlo. Por ahora, eso no ha ocurrido. Pero la historia tecnológica está llena de ejemplos de empresas que creyeron que su ventaja era permanente.


El resumen que cabe en una frase por era

La historia de la GPU es la historia de cómo un chip diseñado para un propósito muy concreto acabó siendo la pieza clave de dos revoluciones que nadie del todo anticipó.

Primera era (1993–2016): Nvidia inventa la GPU para videojuegos y domina ese mercado durante dos décadas.

Segunda era (2017–2022): Los mineros de criptomonedas descubren que la GPU es perfecta para minar Ethereum. El boom cripto dispara las ventas de Nvidia. El posterior colapso —y el abandono del minado por parte de Ethereum— las hunde.

Tercera era (2022–hoy): La IA necesita exactamente lo que la GPU hace mejor: millones de cálculos en paralelo. ChatGPT populariza la IA a escala masiva. La demanda de chips explota. Nvidia se convierte en la empresa más valiosa del mundo. Y EE.UU. convierte sus chips en arma geopolítica.

Un chip diseñado en los años noventa para que los videojuegos se vieran mejor en una pantalla terminó siendo la infraestructura sobre la que se construye la inteligencia artificial del siglo XXI.

Y la empresa que lo fabricó, en buena parte por accidente, vale hoy más que el PIB de la mayoría de los países del mundo.


En MUVO usamos esta misma tecnología para algo muy concreto: hacer que cualquier persona pueda entender y disfrutar un museo, en su idioma y a su nivel. Descubre cómo.

¿Listo para descubrir Muvo?

Estamos aquí para ayudarte. Escríbenos y descubre cómo podemos transformar la experiencia de tu museo con inteligencia artificial.

Lunes a Viernes, 9:00 - 18:00 (CET, hora de Madrid, España)