Inversión en infraestructura para IA: el nuevo eje del mercado tecnológico

Última actualización: enero 25, 2026
Autor: Pixelado
  • La inversión global en IA superará los 2,5 billones de dólares en 2026, con la infraestructura como principal motor del gasto.
  • Servidores acelerados, centros de datos y energía se convierten en el auténtico cuello de botella del despliegue de la IA.
  • NVIDIA, AMD y Broadcom lideran la carrera de chips, con modelos de negocio basados en ecosistemas y acuerdos de largo plazo.
  • Startups y regiones como LATAM encuentran oportunidades si aprovechan la infraestructura cloud y alianzas con hyperscalers.

Inversión en infraestructura para inteligencia artificial

La inversión en infraestructura para inteligencia artificial se ha convertido en uno de los grandes ejes de la transformación tecnológica y económica global. En pocos años hemos pasado de hablar de pilotos aislados y pruebas de concepto a compromisos de cientos de miles de millones de dólares en centros de datos, chips especializados y redes eléctricas capaces de soportar un consumo energético descomunal. Lo que está ocurriendo no es solo otro ciclo tecnológico más, sino una auténtica reorganización de capital a escala mundial.

Mientras el ruido mediático sobre la IA se enfría y muchas organizaciones atraviesan el famoso “valle de la desilusión” descrito por Gartner, el dinero sigue fluyendo con fuerza hacia todo lo que permite que la IA funcione: servidores acelerados, almacenamiento de alto rendimiento, servicios cloud y, cada vez más, energía y redes de transmisión. La paradoja es clara: las expectativas se moderan, pero el gasto se dispara, impulsado por la necesidad de resultados tangibles y retornos medibles.

Previsiones de gasto global en IA: cifras récord y cambio de fase

Según las últimas estimaciones de Gartner, el gasto mundial en inteligencia artificial alcanzará los 2,52 billones de dólares en 2026, un salto de alrededor del 44% respecto a los 1,76 billones calculados para 2025. Y la tendencia no se detiene ahí: la consultora proyecta que el gasto total en IA supere los 3,34 billones de dólares en 2027, reflejando que la IA ya no es una promesa lejana, sino un componente estructural de los presupuestos tecnológicos.

Este crecimiento viene acompañado de un cambio de mentalidad: las empresas con mayor “madurez experiencial” en IA priorizan proyectos con resultados demostrables por encima de iniciativas meramente especulativas. Los consejos de administración y los comités de dirección están siendo mucho más exigentes con la rentabilidad de lo que financian, pidiendo métricas claras de retorno de la inversión y descartando proyectos que no aportan valor real al negocio.

En el marco del conocido ciclo de sobreexpectación de Gartner, la IA se sitúa en la fase de desilusión: se diluye el hype inicial, muchas pruebas piloto se congelan o cancelan y solo sobreviven aquellas implantaciones capaces de generar ahorros, ingresos o ventajas competitivas medibles. Aun así, el volumen de gasto demuestra que el sector ha pasado de la curiosidad a la consolidación.

El objetivo de las organizaciones ahora es llegar al llamado plateau de productividad, la zona en la que la tecnología deja de ser una promesa y se integra sin fricciones en los procesos críticos. Para alcanzar ese punto, serán clave factores como la madurez del capital humano, la calidad de los procesos internos y una regulación más clara que reduzca la incertidumbre en torno a la IA.

En 2026, el sentimiento general del mercado será más bien prudente. Como apunta John-David Lovelock, analista de Gartner, la IA estará en la fase de desilusión y lo más habitual será que las empresas adquieran IA a través de sus proveedores de software actuales en lugar de embarcarse en grandes proyectos “visionarios” de alto riesgo. El criterio dominante será la previsibilidad del retorno.

Infraestructura de IA: el auténtico motor del gasto

Dentro de esos 2,52 billones previstos para 2026, la partida estrella será la infraestructura de IA, con alrededor de 1,36-1,37 billones de dólares de inversión. Se trata de un salto importante frente a los aproximadamente 965.000 millones de 2025 y se espera que alcance unos 1,75 billones en 2027. Solo la construcción de nuevos cimientos tecnológicos (hardware, redes, centros de datos) añadirá 401.000 millones de dólares al mercado de IA en 2026.

Una parte relevante de este empuje la protagonizan los servidores optimizados para cargas de trabajo de IA, especialmente aquellos equipados con aceleradores (fundamentalmente GPU) para entrenamiento y, cada vez más, inferencia. Gartner calcula que la inversión en este tipo de servidores crecerá en torno a un 40-49% y que representarán aproximadamente el 17% del gasto total en IA en 2026, consolidando su papel como columna vertebral del ecosistema.

El esfuerzo no se limita a los racks de servidores. El despliegue de IA escala implica centros de datos de nueva generación, redes especializadas de alta capacidad, soluciones de refrigeración avanzadas y una cadena de suministro capaz de entregar componentes críticos (chips, memoria, switches, sistemas de alimentación) a un ritmo nunca visto. Todo ello está reconfigurando la industria tecnológica tradicional.

La previsión de Gartner también subraya que, a corto plazo, fabricantes de sistemas, almacenamiento, redes y servidores captarán una porción significativa del pastel, incluso aunque el gasto en software y servicios crezca con fuerza. Es decir, el “hierro” vuelve a estar de moda, pero orientado a un propósito muy concreto: acelerar modelos de IA cada vez más grandes y complejos.

  Cómo solucionar el error de red ocupada en Android paso a paso

Gartner desglosa además el gasto previsto para 2026 en diferentes categorías de IA, mostrando un avance transversal: unos 589.000 millones en servicios, cerca de 452.000 millones en software, algo más de 51.000 millones en ciberseguridad impulsada por IA, más de 26.000 millones en modelos de IA, en torno a 31.000 millones en plataformas de ciencia de datos y aprendizaje automático, y algo más de 3.100 millones en conjuntos de datos específicos para IA.

Capex de los hyperscalers: la gran ola de inversión

Uno de los actores más visibles en esta carrera por la infraestructura de IA son los hyperscalers, es decir, los grandes operadores de nube y centros de datos a escala masiva como Amazon, Microsoft o Google. Según un análisis de Goldman Sachs, su gasto de capital conjunto podría superar los 500.000 millones de dólares en 2026, una cifra que deja atrás los ya espectaculares 300.000-380.000 millones estimados para 2025.

Tras los resultados del tercer trimestre de las grandes compañías relacionadas con la infraestructura de IA, las proyecciones de capex para 2026 se revisaron al alza, pasando de unos 465.000 millones a aproximadamente 527.000 millones de dólares. A pesar de ello, se espera una cierta desaceleración en el crecimiento interanual de este gasto, desde el 75% observado en un trimestre reciente hasta alrededor del 25% a finales de 2026, según las previsiones de Goldman Sachs.

Los inversores, sin embargo, se han vuelto más selectivos. Tienden a penalizar a aquellas empresas cuya expansión en infraestructura lastra la rentabilidad operativa y se apoya excesivamente en deuda, y favorecen a las que muestran una correlación clara entre capex e incremento de ingresos, como está ocurriendo con Amazon Web Services o Microsoft Azure. El mensaje es claro: gastar sí, pero con retorno visible.

Esta oleada de inversión no se queda en el sector tecnológico puro: los principales beneficiarios incluyen a fabricantes de semiconductores, operadores de centros de datos, proveedores de hardware y compañías energéticas, cuyos resultados bursátiles han sobrepasado muchas veces las expectativas de crecimiento de sus beneficios. También emerge una nueva generación de empresas de software y servicios que desarrollan plataformas, bases de datos y herramientas específicas para IA, y que podrían ver incrementados sus ingresos a medida que la adopción empresarial se generalice.

A nivel macroeconómico, los analistas prevén que la adopción de la IA tenga un impacto acumulado cercano a los 19,9 billones de dólares en la economía mundial hasta 2030, equivalente a cerca del 3,5% del PIB global en ese año, según un estudio de IDC. Es decir, el movimiento de capital hacia la infraestructura de IA no es un capricho, sino la base material de un salto de productividad esperado para la próxima década.

La batalla de los chips: NVIDIA, AMD y Broadcom al frente

En el centro de esta carrera está el mercado de los chips para IA, donde NVIDIA ha logrado una posición casi hegemónica en aceleradores de propósito general para entrenamiento y, en buena medida, para inferencia. Se calcula que la compañía controla entre el 80% y el 95% del mercado de aceleradores de IA, con márgenes brutos que se mueven en la horquilla del 70-80%. Sus ingresos pasaron de unos 27.000 millones de dólares en 2023 a alrededor de 130.000 millones en 2025, multiplicando casi por diez su valor bursátil en el proceso.

Lejos de limitarse a vender GPU, NVIDIA ha diseñado un modelo en el que combina inversión de capital y captación de clientes dentro de su propio ecosistema. La compañía toma participaciones en empresas que, a su vez, compran grandes volúmenes de sus chips y construyen infraestructuras basadas en su tecnología. El resultado es un circuito en el que cada inversión se traduce en despliegue de infraestructura y en mayor dependencia del ecosistema NVIDIA.

Un ejemplo ilustrativo es el caso de CoreWeave. En 2023, NVIDIA invirtió 100 millones de dólares en la empresa, valorándola en unos 2.000 millones. Posteriormente añadió otros 250 millones en su salida a bolsa, hasta alcanzar una inversión total de 350 millones. Con la revalorización de CoreWeave, la participación de NVIDIA asciende ahora a unos 3.300 millones de dólares, casi diez veces lo que aportó inicialmente. Entre medias, CoreWeave ha comprado cientos de miles de GPU a NVIDIA para cumplir sus contratos de capacidad en la nube.

Aún más llamativo es que NVIDIA se ha comprometido a recomprar capacidad de CoreWeave por valor de 6.300 millones de dólares hasta 2032 si esta no logra llenar sus centros de datos, asumiendo parte del riesgo de inventario que normalmente recae en el proveedor cloud. Este tipo de relación estrecha, reforzada por capital, contratos y acceso preferencial a hardware, explica la fortaleza del llamado “volante de inercia” de NVIDIA.

La compañía ha replicado esta lógica en otras inversiones, como la inyección de 50 millones en Recursion Pharmaceuticals para construir una supercomputadora basada en NVIDIA DGX SuperPOD, o su participación en Perplexity AI, a la que ha dado acceso temprano a sus GPU de última generación. También ha destacado su papel en acuerdos masivos como los proyectos de centros de datos gigantes con OpenAI, alianzas con Oracle o la participación en consorcios que adquieren operadores de centros de datos como Aligned Data Centers.

  Estafas de Telegram más comunes y cómo protegerte de ellas

Frente a este dominio, AMD se ha posicionado como alternativa emergente. Sus ingresos, aunque creciendo de forma respetable (de 22.700 millones de dólares en 2023 a 25.800 millones en 2024, con previsiones de 32.000-34.000 millones en 2025), palidecen frente al boom de NVIDIA. Aun así, la compañía ha conseguido un contrato de 6 gigavatios con OpenAI, su mayor acuerdo hasta la fecha, a cambio de emitir warrants que podrían dar a OpenAI hasta el 10% del capital de AMD si se cumplen determinados hitos de despliegue y precio de la acción.

AMD está apostando fuerte con plataformas como Helios, un sistema de tamaño rack con 72 GPU y alrededor de un 50% más de memoria HBM4 que la plataforma Vera Rubin de NVIDIA, con el objetivo de alcanzar la producción en masa a finales de 2026. La empresa estima un mercado potencial de unos 500.000 millones de dólares para aceleradores de IA en centros de datos de aquí a 2028, cifra que incluso podría quedarse corta si el capex actual se mantiene.

En paralelo, Broadcom se ha hecho fuerte con ASIC personalizados para inferencia de alto volumen. Sus ingresos pasaron de unos 35.800 millones de dólares en 2023 a más de 51.000 millones en 2024, con proyecciones cercanas a 60.000 millones para 2025. Este crecimiento del 67% se apoya en la adopción por parte de hyperscalers de chips específicos para tareas repetitivas de inferencia, mucho más eficientes y baratos que las GPU para escenarios maduros y estables.

Broadcom ha asegurado ya acuerdos que suman alrededor de 10 gigavatios de aceleradores personalizados diseñados junto a OpenAI, que comenzarán a operar a partir de finales de 2026, además de contratos con Google, Meta y otros grandes actores. Su desventaja es que estos ASIC son dispositivos altamente específicos, no plataformas flexibles; pero para cargas de trabajo consolidadas, esa especialización es precisamente su ventaja competitiva frente al modelo generalista de NVIDIA.

Explosión de proyectos de infraestructura y el papel de la energía

La magnitud de los compromisos de inversión en infraestructura de IA da una idea del momento que vive el sector. Solo en 2025, hasta octubre, se anunciaron casi un billón de dólares en proyectos de infraestructura de IA: alrededor de 500.000 millones del megaproyecto Stargate (liderado por OpenAI, Oracle y SoftBank), unos 150.000 millones en acuerdos estratégicos y de suministro impulsados por NVIDIA, y una cascada de contratos para la compra de GPU y construcción de centros de datos por parte de hyperscalers, fondos de capital privado y gobiernos.

En un solo trimestre, Oracle anunció 48.000 millones de dólares en nuevos contratos de nube, el mayor volumen trimestral de su historia, con una cartera de pedidos que alcanzó los 130.000 millones (un 63% más interanual). Y eso sin incluir aún a Stargate, que a finales de septiembre ya había comprometido más de 400.000 millones de dólares y asegurado unos 7 gigavatios de capacidad.

A esta oleada se suman otros movimientos colosales: una carta de intenciones entre NVIDIA y OpenAI para desplegar hasta 10 gigavatios de capacidad de cómputo (con el primer gigavatio operativo a mediados de 2026), acuerdos de CoreWeave por 36.600 millones de dólares con OpenAI y Meta en cinco días, contratos de AMD para 6 gigavatios con OpenAI o el compromiso de Broadcom para suministrar 10 gigavatios de ASIC personalizados.

Todo esto desemboca en una cuestión crítica: la energía se convierte en el cuello de botella. Hoy, los centros de datos de IA consumen aproximadamente entre 6 y 8 gigavatios a nivel global. Un solo gigavatio, comparable a la potencia continua de un reactor nuclear, basta para alimentar un gran centro de datos de IA. El acuerdo de 10 gigavatios entre OpenAI y NVIDIA implica, con un PUE moderno en torno a 1,3, unos 7,5 GW de potencia utilizable, de los cuales cerca del 80% iría a aceleradores, lo que supone unos 6 GW destinados casi íntegramente a GPU de clase Blackwell.

En términos de hardware, eso se traduce en unos 6 millones de GPU repartidas en más de 80.000 racks. Aunque OpenAI y sus socios construyan los edificios, los sistemas de refrigeración y las redes internas, la electricidad tiene que llegar desde la red. Y hablamos de una demanda equivalente a la de unos 10 reactores nucleares a pleno funcionamiento las 24 horas del día, los siete días de la semana.

La red eléctrica estadounidense, por ejemplo, añade entre 10 y 15 gigavatios de nueva capacidad al año. Para alcanzar entre 44 y 51 gigavatios adicionales vinculados a centros de datos de IA para 2026, habría que acelerar el ritmo de despliegue entre tres y cinco veces. La construcción de líneas de transmisión de alta tensión suele tardar de 3 a 5 años, sin contar con las trabas regulatorias y la oposición local. Algunos operadores regionales ya han avisado de retrasos hasta 2026-2027 en la incorporación de nueva capacidad para centros de datos.

Los llamados reactores modulares pequeños no estarán listos hasta la década de 2030, y las centrales de gas natural se topan con limitaciones de infraestructura y permisos. Los grandes acuerdos de compra de energía y capacidad de red prometen recursos que, en muchos casos, todavía no existen físicamente, lo que ilustra el desfase entre la velocidad del capital financiero y la de la infraestructura física.

  Cómo saber si están espiando tu móvil y qué puedes hacer para evitarlo

Mercado mundial de infraestructura de IA: cifras de IDC y liderazgo regional

Los datos de IDC confirman que el mercado de infraestructura para IA está en fase de expansión acelerada. El gasto global en hardware para IA podría llegar a unos 758.000 millones de dólares en 2029, impulsado en buena medida por el uso masivo de servidores acelerados y entornos cloud compartidos. Solo en el segundo trimestre de 2025, las organizaciones aumentaron su inversión en computación y almacenamiento para IA un 166% interanual, hasta alcanzar los 82.000 millones de dólares.

Estados Unidos concentra cerca del 76% del gasto mundial en infraestructura de IA, seguido por China (alrededor del 11,6%), Asia-Pacífico (6,9%) y EMEA (4,7%). Aun así, se espera que China registre la tasa de crecimiento más alta en los próximos cinco años, con un CAGR del 41,5%, ligeramente por encima del 40,5% de EE. UU. y por delante de EMEA (17,3%) y Asia-Pacífico (14,3%).

Dentro de esa inversión, el segmento de servidores es el más dominante: representa aproximadamente el 98% del gasto centrado en IA, con un crecimiento interanual de más del 170% en algunos trimestres. Los servidores con aceleradores integrados, sobre todo GPU, se han convertido en la opción preferida para desplegar plataformas de IA y ya suponen alrededor del 91,8% del gasto en servidores para IA, con una previsión de superar el 95% para 2029.

El almacenamiento específico para IA también muestra un crecimiento sólido, con tasas superiores al 20% interanual en varios periodos, empujado por la necesidad de manejar volúmenes de datos inmensos para entrenamiento, checkpoints y fases de inferencia. La arquitectura típica de estos entornos combina almacenamiento de muy baja latencia para datasets calientes con soluciones más baratas pero masivas para archivos históricos y repositorios de modelos.

Otro dato relevante es que más del 84% del gasto en infraestructura de IA se destina a entornos cloud y compartidos, con hyperscalers, proveedores de servicios digitales y de nube como principales motores (alrededor del 86-87% de ese total). La demanda de escalabilidad, elasticidad y eficiencia económica ha consolidado el modelo “as-a-service” como vía de acceso predominante a capacidad de cómputo para IA, especialmente para startups y empresas que no pueden permitirse construir sus propios centros de datos.

Impacto en startups y ecosistema de LATAM

El auge de la infraestructura de IA no se limita a Estados Unidos, Europa o China. En Latinoamérica se está abriendo una ventana de oportunidad para startups tecnológicas que quieran aprovechar este nuevo escenario. El despliegue de centros de datos, programas de créditos cloud y alianzas con grandes proveedores de nube facilita el acceso a potencia de cómputo de nivel mundial sin necesidad de grandes inversiones iniciales.

Los fondos de capital riesgo y los programas de aceleración están priorizando cada vez más a aquellas startups que desarrollan casos de uso basados en IA o que se integran de forma inteligente con la infraestructura existente. No es raro ver iniciativas conjuntas con Google Cloud, AWS u otros hyperscalers que ofrecen créditos, acompañamiento técnico y acceso a herramientas punteras a emprendedores de la región.

Sin embargo, no todo son ventajas. La competencia por el talento especializado en IA, MLOps y arquitectura cloud es feroz, y existe una brecha creciente entre las startups que logran asegurarse una infraestructura robusta desde fases tempranas y aquellas que se quedan atrapadas en entornos limitados. Levantar rondas de financiación, cerrar acuerdos de partnership o incluso integrarse en programas beta de nuevos servicios puede marcar la diferencia en la capacidad de escalar.

Para los fundadores de la región, es clave diseñar desde el principio arquitecturas flexibles y escalables que puedan absorber picos de demanda sin disparar los costes, aprovechar al máximo los créditos y descuentos de los proveedores cloud, y estar muy atentos a los movimientos de los grandes actores de infraestructura. Estar cerca de comunidades técnicas activas y mantenerse al día de las novedades del sector puede convertirse en una ventaja competitiva real.

Los acuerdos millonarios entre OpenAI, NVIDIA, los hyperscalers y otros gigantes están democratizando, en cierta medida, el acceso a tecnología puntera, pero también elevan el listón de lo que se espera de una startup que quiere jugar en la liga de la IA avanzada. Tener visión global desde el minuto uno ya no es opcional, sino casi un requisito.

Todo este torrente de inversión en infraestructura para IA está reconfigurando de arriba abajo el panorama tecnológico, financiero y energético. La combinación de previsiones de gasto de billones de dólares, concentración de poder en unos pocos proveedores de chips y nube, tensiones en la red eléctrica y escrutinio regulatorio hace que el futuro del sector sea tan prometedor como incierto. Las empresas que consigan alinear su estrategia de IA con infraestructuras eficientes, modelos de negocio sostenibles y una gestión prudente del riesgo serán las que realmente capitalicen esta ola histórica, mientras que otras podrían quedar atrapadas en una carrera de gasto sin retorno claro.

que es teamviewer-2
Artículo relacionado:
Guía completa sobre TeamViewer: qué es, cómo funciona y para qué sirve
Grupolandia Grupos de Whatsapp SeguidoresMania Despedidas Granada | Despedidas de Soltera en Granada Parada Creativa Diseño Web en Granada Posicionamiento Seo Granada Guía Alfa Saltos de Linea Ole Tus Juegos Awy Loquendo Loquendo | Voz Loquendo SEO GRANADA Apúntate Una Marlos Generación Digital