Geopolítica de semiconductores y cadenas globales de la IA

Por Javier Surasky


El ascenso exponencial de la inteligencia artificial (IA) ha generado una transformación acelerada y altamente compleja en las cadenas globales de valor de los semiconductores, materiales que, como el silicio, tienen la propiedad de comportarse como conductores de electricidad y como aislantes, según cómo se los utilice.

Esa dualidad permite el control del paso de corriente de manera sumamente precisa, convirtiéndolos en la base física de todos los chips modernos, que son, de manera general semiconductores integrados en una única pieza de silicio, convirtiéndose en el poder detrás de las computadoras, los teléfonos móviles o la capacidad de procesamiento que requiere la IA. Se han vuelto una infraestructura estratégica, cuya producción está concentrada en pocos países y empresas.

Como resultado vemos que la transformación de las cadenas de producción asume tres vectores o espacios diferentes pero vinculados: 1. la expansión del mercado de aceleradores y memorias avanzadas, 2. la concentración geográfica de la capacidad de producción de semiconductores, y 3. El impacto sostenido en la huella ambiental y energética asociada al hardware más potente disponible.

En nuestro anterior artículo sobre el tema de la interdependencia sino-estadounidense que se integra en su carrera por liderar la IA, vimos que el poder estructural de un mundo digital está cambiando las formas de su economía a la vez que general nuevas vulnerabilidades. En este segundo blog hacemos un “zoom” sobre los fundamentos materiales, productivos y regulatorios que sostienen y tensionan globalmente la expansión de la IA, dedicando especial atención al mercado de chips, las demandas de memoria, el crecimiento del cloud computing y los marcos de control de exportaciones.

Un distraído podría pensar que se tratará de un texto orientado a ingenieros, algo que jamás podría escribir ya que no lo soy, pero en realidad está pensado principalmente para científicos sociales, cuyos múltiples ámbitos de conocimiento también se están viendo transformados, y cuya labor los convoca a incorporar nuevas capacidades analíticas que permitan entender mejor los diversos impactos sistémicos de la transición digital en que estamos inmersos.

Comencemos por afirmar una verdad evidente: el mercado de aceleradores para la IA ha mantenido una trayectoria ascendente: conforme estimaciones recientes, el valor global del mercado alcanzó USD140,55 mil millones en 2024 y podría superar los USD440 mil millones en 2030, lo que implica un crecimiento medio anual cercano al 20% (Mordor Intelligence, 2024)

La demanda estructural detrás de esas sumas está en modelos cada vez más grandes y cargas de trabajo de cómputo más complejas, especialmente debido al creciente progreso en materias como la IA aplicada a generación de video, multimodal y de agentes autónomos.

Pero mientras esa demanda crece en forma disparada, la industria se acerca a límites físicos. Una Unidad de Procesamiento Gráfico (más conocidas como GPU) es una clase de chip diseñado para hacer múltiples cálculos en paralelo, lo que les otorga una capacidad de cálculo masivo y simultáneo ideal para “gestionar” operaciones repetidas y muy intensivas, como lo son las de entrenar y ejecutar modelos de IA. En otros términos, los GPU son el núcleo de cualquier centro de datos que entrene modelos grandes de lenguaje, visionado de imágenes o sistemas de IA generativa.

Los GPU de última generación, como NVIDIA H100 y GB100 Blackwell, se aproximan al límite máximo de tamaño impuesto por la retícula de litografía, que no es ni más ni menos que el proceso mediante el cual se “dibujan” los circuitos dentro de un chip. Esto crea una barrera física y nos sirve para entender por qué no es posible escalar la capacidad de un chip simplemente “agrandándolo”, sino que requerimos de nuevas arquitecturas de chips, como los sistemas “multi die” en que un chip no está formado por una única pieza de silicio, sino por varias piezas pequeñas (las dies) interconectadas dentro de un mismo “paquete”, de tal modo que cada die asume una función propia y juntos funcionan como un único chip más potente.

Siguiendo una estrategia similar de “desacople y reacople” hallamos a la High Bandwidth Memory (o HBM), un tipo de memoria súper rápida que permite operar con grandes cantidades de datos sin que el sistema sufra demoras. A diferencia de sus antecesoras, la HBM se apila en stacks. Para entender su arquitectura podemos pensar en la construcción de un castillo de naipes, en el que se trata de agregar piso sobre piso para llegar lo más alto posible sin que se caiga la estructura. Cada nivel de naipes completo actúa como una HBM, ahorrando espacio e incrementando la velocidad operativa. En la actualidad, y sin saber cuál es el techo, un acelerador de última generación está llegando a 1 terabyte (Rusell, 2025) de HBM mediante el apilamiento de stacks de 16 niveles cada uno, algo así como tomar 16 castillos de naipes de 16 niveles cada uno y conectarlos entre sí para que, en conjunto, generen una formación que mantenga el equilibrio sin desmoronarse, lo que se traduce en un poder de manejar enormes cantidades de entradas y salidas por segundo a nivel local, sin requerir de “la nube”, que es un factor ralentizador de los procesos.

La demanda de memoria, que antes se explicaba por la necesidad de aumentar la eficiencia de procesamiento, ahora está sostenida por un desafío mucho mayor: lograr cruzar los límites funcionales de la IA actual que resultan de la insuficiencia de los actuales modelos de soporte físico que la sustentan.

Consecuencia directa de ello es un aumento constante de la huella de carbono embebida del hardware. El informe Global AI GPU Manufacturing Carbon Emissions Forecast (Rusell, 2025), se estima que las emisiones relacionadas directamente con la fabricación de aceleradores fueron de 1,8 millones de toneladas de CO₂ equivalente en 2024 a 21,6 millones en 2030, lo que representa cerca del 9% del total de emisiones del sector de semiconductores para ese año.

Y es que los aceleradores más nuevos utilizan grandes cantidades de memoria HBM, y producir esa memoria es más complejo y requiere de mayor consumo energético y de materiales que cualquier versión anterior. Aunque esto sea más técnico, señalemos que un chip como el H100 de Nvidia, que comenzó a utilizarse en marzo de 2023 y sigue operativo en varios laboratorios y centros de investigación, genera la mayor parte de sus emisiones por el consumo de su procesador central, mientras que los nuevos modelos (sí, el de 2023 ya no es un nuevo modelo) como el MI300X de AMD o los futuros Rubin Ultra de NVIDIA, el espacio y el trabajo que requiere su fabricación concentra se tornan la parte dominante en la huella de carbono que genera su producción (Chen et al., 2025; TechInsights, 2025a y 2025b y Rteil, 2025)

Como era de esperarse, la disponibilidad acotada de un recurso estratégico se expresa como tensiones internacionales, reforzadas por una creciente concentración de capacidades en el sector. Para explicarlo debemos saber que la “generación” (la familia a la cual pertenece un chip” se mide en nanómetros (nm). Cuando se habla de chips de “5 nm”, “3 nm” o “2 nm” no se está describiendo el tamaño físico de un transistor sino la generación tecnológica del proceso utilizado en su fabricación: a menor número de nm, más avanzado es el proceso.

Aclarado es punto, destacamos que, según la Semiconductor Industry Association (2024), más del 70% de la capacidad de fabricación avanzada por debajo de 10 nm se localiza en Corea del Sur y Taiwán, con la empresa TSMC (2024), taiwanesa, pero con filiales en Estados Unidos, Japón y Alemania, produciendo alrededor del 90% de los nodos líderes por debajo de 5 nm.

El resultado es una cadena de producción distribuida que se inicia con la obtención de recursos naturales como el silicio metalúrgico, cuya producción está concentrada en China, seguida por Estados Unidos y Alemania; el cobre, proveniente sobre todo de Chile, Perú y China; el cobalto, hiperconcentrado en la República Democrática del Congo, con aportes secundarios de Indonesia y el galio, que proviene casi exclusivamente de China, con aportes menores de Japón y Corea del Sur las tierras raras, cuya existencia se concentra en China, seguida de lejos por Estados Unidos y Australia; el níquel, que se obtiene principalmente en Indonesia, Filipinas y Rusia y el litio , proveniente de Australia, Chile y China (United States Geological Survey. 2024; International Energy Agency.2024).

Estados Unidos es líder en el eslabón intelectual y de diseño, lo que implica que controla los insumos intelectuales y de software sin los cuales ningún otro país puede diseñar o fabricar chips de última generación, mientras que la producción avanzada se concentra en países específicos de Asia (OECD, 2024a).

La litografía EUV, es decir el grabado de los circuitos microscópicos dentro del chip mediante, está en manos de un número muy reducido de actores entre los que se destaca la empresa ASML, con sede en los Países Bajos (OECD, 2024b; ASML, 2024).

El ensamblaje de partes, que implica cortar los chips, encapsularlos y combinarlos con otros componentes, como las ya mencionadas HBM o módulos de interconexión, ocurre fundamentalmente en China, Malasia y Vietnam.

Los principales “consumidores” de chips son China (35–40 %), Estados Unidos (≈20 %), Alemania (≈10 % UE), Japón (6–7 %), Corea del Sur (5–6 %), India (≈3 %) y Taiwán (≈3 %), según datos combinados de SIA (2024a) y OECD (2024a).

El montaje de la producción en grandes operadores de datos lleva la cadena nuevamente hacia Estados Unidos como primer referente, ya que allí se encuentran las “fábricas de datos” de Amazon (Seattle), Microsoft (Redmond), Google (Mountain View), Meta (Menlo Park) y Oracle (Austin), a las que se suman proveedores especializados como CoreWeave (New Jersey), Lambda (San Francisco) y Crusoe (Denver). Nebius, en Zúrich, es la principal excepción fuera del país norteamericano (Synergy Research Group, 2025).

Tras este paso, se integra la cadena del software (datasets, frameworks de aprendizaje, arquitecturas de modelos) y las horas de cómputo que implican los entrenamientos y uso de sistemas, para llegar finalmente a la distribución del producto ya sea “en la nube” o de manera local.

Este proceso de competencia e interdependencia combinadas puede complementarse con la información sobre supercomputadoras y clusters que nos brinda el Top500, el ranking más utilizado a nivel mundial para evaluar la computación de alto rendimiento, que refleja los avances de los chips especiales para IA, los aceleradores de infraestructuras críticas y la concentración geográfica de sistemas de cómputo de máximo poder.

Los 10 supercomputadores más potentes del mundo noviembre de 2025 eran, en este orden, Frontier (Estados Unidos), Aurora (Estados Unidos), Eagle (Estados Unidos), Fugaku (Japón), Leonardo (Italia/UE), Summit (Estados Unidos), Sierra (Estados Unidos), MareNostrum (España), Lumi (Finlandia-UE), Polaris (Estados Unidos) (Top500 Project, 2025).

Este listado nos brinda información muy interesante:

·         En primer lugar, como es obvio, muestra el protagonismo de los Estados Unidos, donde se encuentran seis de las 10 supercomputadoras más potentes del mundo, mientras que no hay en el listado ninguna en China ¿Signo de debilidad? No. China ha decidido dejar de reportar internacionalmente sobre la capacidad de sus supercomputadoras, por lo tanto, no hay información oficial. No obstante, Dongarra (2022) y Shilov (2023), entre otros, sostienen que las supercomputadoras chinas Sunway Oceanlite y Tianhe-3 tienen un rendimiento que las ubicaría en el top cinco.

·         De las 10 supercomputadoras que encabezan el top 500, las primeras dos tienen lo que se denomina capacidad exascale; esto es, operan en el rango de al menos un exaflop (10¹⁸ operaciones por segundo). Nuevamente, sin datos oficiales, las estimaciones realizadas por los autores antes nombrados sobre el poder de cálculo de las máquinas chinas sugieren que el país también podría contar con dos supercomputadoras trabajando en exascale.

·         Aun cuando el Estado no es el principal impulsor del desarrollo de la IA, su rol se ve claramente al repasar el listado: de las diez supercomputadoras más potentes del mundo, nueve se encuentran en consorcios públicos o laboratorios nacionales.

·         Únicamente Eagle (en la tercera posición) es propiedad de un proveedor comercial que brinda servicios de cloud computing: Microsoft.

Este recorrido es suficiente para explicar la importancia de las políticas de control de exportaciones en esta industria. Países Bajos, por ejemplo, ha establecido regulaciones específicas para la exportación de equipos avanzados de litografía a China bajo presión de los Estados Unidos.

La infraestructura física, por su parte, enfrenta un fuerte cuello de botella energético, otro de los límites físicos con que se topa el sector: una serie de estudios (Patterson et al 2021; Thompson y Spanuth, 2021; Chamness, 2025; Rusell, 2025) muestran que el crecimiento de la demanda computacional supera los avances que se producen en materia de eficiencia energética. El resultado es una incipiente pero clara competencia entre los grandes del sector de la IA por acceder a redes eléctricas de baja intensidad de carbono y, en términos más extensos, la incorporación de serias dudas sobre la sostenibilidad a largo plazo del modelo actual de expansión de la IA.

En este escenario, las ciencias sociales cumplen un papel indispensable para complementar las aproximaciones técnico-económicas. Las decisiones sobre controles de exportación, incentivos fiscales, localización de datacenters, subsidios para fabricación y requisitos ambientales emergen tanto de restricciones físicas y económicas como de marcos institucionales, prioridades políticas, fortaleza democrática y capacidad institucional de los Estados y las relaciones entre estos y las empresas privadas.

A su vez, el ritmo de adopción tecnológica depende de factores como coordinación regulatoria, relaciones comerciales internacionales, establecimiento de alianzas estratégicas, definición de estándares internacionales y negociaciones multilaterales dentro del complejo ecosistema de IA, trayendo al centro de las discusiones asunto de justicia digital, un espacio conceptual y epistemológico cuyo crecimiento necesita de investigación interdisciplinaria con fuerte participación de las ciencias sociales.

Como hemos sostenido en reiteradas ocasiones en nuestro blog, la expansión acelerada de la IA no es un fenómeno puramente tecnológico, sino que implica una reconfiguración del orden político mundial. Las ciencias sociales deben tomar su lugar en los debates sobre impactos distributivos, análisis político y social, estudios de política industrial, predicción de escenarios geopolíticos, desarrollo de herramientas para la protección ambiental y el análisis de riesgos, entre muchas ventanas de acción posibles.

Sin esa mirada múltiple sobre los hechos y percepciones sociales del desarrollo de la IA no será posible entender el significado integral de qué tipo de infraestructura digital se está construyendo, quién se beneficiará de ella, y cuáles serán sus consecuencias en la vida de las personas.

Es demasiado lo que está en juego como para dejarlo solo en manos de un puñado de técnicos y expertos del campo informático. Es indispensable meter las manos en el barro de la IA antes de que otros decidan, ante el silencio y la mirada atónita de los científicos sociales, porque entonces ya será muy tarde.

 

Bibliografia

ASML. (2024). Export controls and lithography systems. Government of the Netherlands. https://www.government.nl/topics/export-controls-of-strategic-goods

Chamness, L. (2025, 3 de octubre) The Hidden Environmental Cost of Advanced AI Chips. TechInsights. https://library.techinsights.com/hg-content/35313f98-2500-44f3-8a28-6dd7d8ceccf2

Chen, X., Han, L., Bhagavathula, A., & Gupta, U. (2025). CarbonClarity: Understanding and addressing uncertainty in embodied carbon for sustainable computing. arXiv. https://doi.org/10.48550/arXiv.2507.01145

Dongarra, J. (2022). A New Era in Computing: Exascale Systems and Their Implications. Communications of the ACM, 65(6), 34-36

International Energy Agency. (2024). Global Critical Minerals Outlook 2024. https://www.iea.org/reports/global-critical-minerals-outlook-2024

Mordor Intelligence. (2024). AI Accelerators Market. Growth, trends, forecasts (2025-2030). https://www.mordorintelligence.com/industry-reports/ai-accelerators-market

OECD. (2024a). Mapping the global semiconductor value chain. OECD Publishing. https://www.oecd.org/content/dam/oecd/en/publications/reports/2025/06/mapping-the-semiconductor-value-chain_5ba52971/4154cdbf-en.pdf

OECD. (2024b). The chip landscape: Economic, geopolitical and environmental dimensions of semiconductors. OECD Publishing. https://www.oecd.org/content/dam/oecd/en/publications/reports/2025/12/the-chip-landscape_27ef5d87/02dbd028-en.pdf

Patterson, D.; Gonzalez, J.; Le, Q.; Liang, C.; Munguia, L-M.; Rothchild, D.; So, D.; Texier, M. y Dean, J. (2021) Carbon Emissions and Large Neural Network Training. https://arxiv.org/abs/2104.10350

Rteil, N. (2025, 18 de septiembre). Understanding GPU’s energy and environmental impact – Part I. Interact. https://interactdc.com/posts/understanding-gpus-energy-and-environmental-impact-part-i/

Rusell, S. (2025) Global AI GPU manufacturing carbon emissions forecast 2026-2030. TechInsights. https://library.techinsights.com/hg-content/d77d2810-28cb-4f7b-bcad-17c937a10b41#moduleName=My+Library&reportCode=SME-2510-805&subscriptionId=null&channelId=null&reportName=Global+AI+GPU+Manufacture+Carbon+Emissions+Forecast%252C+2026-2030

Semiconductor Industry Association (2024). State of the U.S. Semiconductor Industry. SIA. https://www.semiconductors.org/wp-content/uploads/2024/10/SIA_2024_State-of-Industry-Report.pdf

Shilov, A. (2023, 10 de Agosto). China builds exascale supercomputer with 19.2 million cores. Tom’s Hardware. https://www.tomshardware.com/news/china-builds-exascale-supercomputer-with-192-million-cores

Synergy Research Group. (2025, 19 de noviembre). Cloud Market Share Trends. https://www.srgresearch.com/articles/cloud-market-share-trends-big-three-together-hold-63-while-oracle-and-the-neoclouds-inch-higher

TechInsights (2025a, 4 de diciembre). Majority of emissions from semiconductor manufacturing come from the fabrication of die. https://www.techinsights.com/blog/majority-emissions-semiconductor-manufacturing-come-fabrication-die

TechInsights. (2025b, 4 de diciembre). AI GPU growth directly impacts carbon emission growth through 2030. https://www.techinsights.com/blog/ai-gpu-growth-directly-impacts-carbon-emission-growth-through-2030

Thompson, N., y Spanuth, S. (2021). The Decline of Computers as a General Purpose Technology. Communications of the ACM, 64(3), 64-72. https://doi.org/10.1145/3430936

Top500 Project. (2025). TOP500 Supercomputer Sites. https://www.top500.org/lists/top500/2025/11

TSMC. (2024). Annual Report 2024. https://investor.tsmc.com/sites/ir/annual-report/2024/2024%20Annual%20Report-E.pdf

United States Geological Survey. (2024). Mineral Commodity Summaries 2024. U.S. Department of the Interior. https://pubs.usgs.gov/periodicals/mcs2024/mcs2024.pdf