Por Javier Surasky
El ascenso exponencial de la inteligencia artificial (IA)
ha generado una transformación acelerada y altamente compleja en las cadenas
globales de valor de los semiconductores, materiales que, como el silicio,
tienen la propiedad de comportarse como conductores de electricidad y como
aislantes, según cómo se los utilice.
Esa dualidad permite el control del paso de corriente de
manera sumamente precisa, convirtiéndolos en la base física de todos los chips
modernos, que son, de manera general semiconductores integrados en una única pieza
de silicio, convirtiéndose en el poder detrás de las computadoras, los
teléfonos móviles o la capacidad de procesamiento que requiere la IA. Se han
vuelto una infraestructura estratégica, cuya producción está concentrada en
pocos países y empresas.
Como resultado vemos que la transformación de las cadenas de
producción asume tres vectores o espacios diferentes pero vinculados: 1. la
expansión del mercado de aceleradores y memorias avanzadas, 2. la concentración
geográfica de la capacidad de producción de semiconductores, y 3. El impacto sostenido
en la huella ambiental y energética asociada al hardware más potente
disponible.
En nuestro
anterior artículo sobre el tema de la interdependencia sino-estadounidense
que se integra en su carrera por liderar la IA, vimos que el poder estructural de
un mundo digital está cambiando las formas de su economía a la vez que general nuevas
vulnerabilidades. En este segundo blog hacemos un “zoom” sobre los fundamentos
materiales, productivos y regulatorios que sostienen y tensionan globalmente la
expansión de la IA, dedicando especial atención al mercado de chips, las
demandas de memoria, el crecimiento del cloud computing y los marcos de
control de exportaciones.
Un distraído podría pensar que se tratará de un texto
orientado a ingenieros, algo que jamás podría escribir ya que no lo soy, pero
en realidad está pensado principalmente para científicos sociales, cuyos
múltiples ámbitos de conocimiento también se están viendo transformados, y cuya
labor los convoca a incorporar nuevas capacidades analíticas que permitan
entender mejor los diversos impactos sistémicos de la transición digital en que
estamos inmersos.
Comencemos por afirmar una verdad evidente: el mercado de
aceleradores para la IA ha mantenido una trayectoria ascendente: conforme
estimaciones recientes, el valor global del mercado alcanzó USD140,55 mil
millones en 2024 y podría superar los USD440 mil millones en 2030, lo que
implica un crecimiento medio anual cercano al 20% (Mordor
Intelligence, 2024)
La demanda estructural detrás de esas sumas está en modelos
cada vez más grandes y cargas de trabajo de cómputo más complejas,
especialmente debido al creciente progreso en materias como la IA aplicada a
generación de video, multimodal y de agentes autónomos.
Pero mientras esa demanda crece en forma disparada, la
industria se acerca a límites físicos. Una Unidad de Procesamiento Gráfico (más
conocidas como GPU) es una clase de chip diseñado para hacer múltiples cálculos
en paralelo, lo que les otorga una capacidad de cálculo masivo y simultáneo
ideal para “gestionar” operaciones repetidas y muy intensivas, como lo son las
de entrenar y ejecutar modelos de IA. En otros términos, los GPU son el núcleo
de cualquier centro de datos que entrene modelos grandes de lenguaje, visionado
de imágenes o sistemas de IA generativa.
Los GPU de última generación, como NVIDIA H100 y GB100
Blackwell, se aproximan al límite máximo de tamaño impuesto por la retícula de
litografía, que no es ni más ni menos que el proceso mediante el cual se
“dibujan” los circuitos dentro de un chip. Esto crea una barrera física y nos
sirve para entender por qué no es posible escalar la capacidad de un chip
simplemente “agrandándolo”, sino que requerimos de nuevas arquitecturas de
chips, como los sistemas “multi die” en que un chip no está formado por
una única pieza de silicio, sino por varias piezas pequeñas (las dies) interconectadas
dentro de un mismo “paquete”, de tal modo que cada die asume una función
propia y juntos funcionan como un único chip más potente.
Siguiendo una estrategia similar de “desacople y reacople”
hallamos a la High Bandwidth Memory (o HBM), un tipo de memoria súper
rápida que permite operar con grandes cantidades de datos sin que el sistema sufra
demoras. A diferencia de sus antecesoras, la HBM se apila en stacks. Para
entender su arquitectura podemos pensar en la construcción de un castillo de
naipes, en el que se trata de agregar piso sobre piso para llegar lo más alto
posible sin que se caiga la estructura. Cada nivel de naipes completo actúa
como una HBM, ahorrando espacio e incrementando la velocidad operativa. En la
actualidad, y sin saber cuál es el techo, un acelerador de última generación
está llegando a 1 terabyte (Rusell,
2025) de HBM mediante el apilamiento de stacks de 16 niveles cada
uno, algo así como tomar 16 castillos de naipes de 16 niveles cada uno y
conectarlos entre sí para que, en conjunto, generen una formación que mantenga
el equilibrio sin desmoronarse, lo que se traduce en un poder de manejar
enormes cantidades de entradas y salidas por segundo a nivel local, sin
requerir de “la nube”, que es un factor ralentizador de los procesos.
La demanda de memoria, que antes se explicaba por la necesidad
de aumentar la eficiencia de procesamiento, ahora está sostenida por un desafío
mucho mayor: lograr cruzar los límites funcionales de la IA actual que resultan
de la insuficiencia de los actuales modelos de soporte físico que la sustentan.
Consecuencia directa de ello es un aumento constante de la
huella de carbono embebida del hardware. El informe Global AI GPU
Manufacturing Carbon Emissions Forecast (Rusell,
2025), se estima que las emisiones relacionadas directamente con la
fabricación de aceleradores fueron de 1,8 millones de toneladas de CO₂
equivalente en 2024 a 21,6 millones en 2030, lo que representa cerca del 9% del
total de emisiones del sector de semiconductores para ese año.
Y es que los aceleradores más nuevos utilizan grandes cantidades
de memoria HBM, y producir esa memoria es más complejo y requiere de mayor
consumo energético y de materiales que cualquier versión anterior. Aunque esto
sea más técnico, señalemos que un chip como el H100 de Nvidia, que comenzó a
utilizarse en marzo de 2023 y sigue operativo en varios laboratorios y centros
de investigación, genera la mayor parte de sus emisiones por el consumo de su procesador
central, mientras que los nuevos modelos (sí, el de 2023 ya no es un nuevo
modelo) como el MI300X de AMD o los futuros Rubin Ultra de NVIDIA, el espacio y
el trabajo que requiere su fabricación concentra se tornan la parte dominante
en la huella de carbono que genera su producción (Chen et al., 2025; TechInsights,
2025a y 2025b
y Rteil,
2025)
Como era de esperarse, la disponibilidad acotada de un
recurso estratégico se expresa como tensiones internacionales, reforzadas por una
creciente concentración de capacidades en el sector. Para explicarlo debemos
saber que la “generación” (la familia a la cual pertenece un chip” se mide en
nanómetros (nm). Cuando se habla de chips de “5 nm”, “3 nm” o “2 nm” no se está
describiendo el tamaño físico de un transistor sino la generación tecnológica
del proceso utilizado en su fabricación: a menor número de nm, más avanzado es
el proceso.
Aclarado es punto, destacamos que, según la Semiconductor
Industry Association (2024), más
del 70% de la capacidad de fabricación avanzada por debajo de 10 nm se localiza
en Corea del Sur y Taiwán, con la empresa TSMC
(2024), taiwanesa, pero con filiales en Estados Unidos, Japón y Alemania,
produciendo alrededor del 90% de los nodos líderes por debajo de 5 nm.
El resultado es una cadena de producción distribuida que se
inicia con la obtención de recursos naturales como el silicio metalúrgico, cuya
producción está concentrada en China, seguida por Estados Unidos y Alemania; el
cobre, proveniente sobre todo de Chile, Perú y China; el cobalto,
hiperconcentrado en la República Democrática del Congo, con aportes secundarios
de Indonesia y el galio, que proviene casi exclusivamente de China, con aportes
menores de Japón y Corea del Sur las tierras raras, cuya existencia se
concentra en China, seguida de lejos por Estados Unidos y Australia; el níquel,
que se obtiene principalmente en Indonesia, Filipinas y Rusia y el litio
, proveniente de Australia, Chile y China (United States
Geological Survey. 2024; International
Energy Agency.2024).
Estados Unidos es líder en el eslabón intelectual y de diseño,
lo que implica que controla los insumos intelectuales y de software sin los
cuales ningún otro país puede diseñar o fabricar chips de última generación,
mientras que la producción avanzada se concentra en países específicos de Asia
(OECD,
2024a).
La litografía EUV, es decir el grabado de los circuitos
microscópicos dentro del chip mediante, está en manos de un número muy reducido
de actores entre los que se destaca la empresa ASML, con sede en los Países
Bajos (OECD,
2024b; ASML,
2024).
El ensamblaje de partes, que implica cortar los chips, encapsularlos
y combinarlos con otros componentes, como las ya mencionadas HBM o módulos de
interconexión, ocurre fundamentalmente en China, Malasia y Vietnam.
Los principales “consumidores” de chips son China (35–40 %),
Estados Unidos (≈20 %), Alemania (≈10 % UE), Japón (6–7 %), Corea del Sur (5–6
%), India (≈3 %) y Taiwán (≈3 %), según datos combinados de SIA (2024a) y OECD
(2024a).
El montaje de la producción en grandes operadores de datos
lleva la cadena nuevamente hacia Estados Unidos como primer referente, ya que
allí se encuentran las “fábricas de datos” de Amazon (Seattle), Microsoft
(Redmond), Google (Mountain View), Meta (Menlo Park) y Oracle (Austin), a las
que se suman proveedores especializados como CoreWeave (New Jersey), Lambda
(San Francisco) y Crusoe (Denver). Nebius, en Zúrich, es la principal excepción
fuera del país norteamericano (Synergy
Research Group, 2025).
Tras este paso, se integra la cadena del software (datasets,
frameworks de aprendizaje, arquitecturas de modelos) y las horas de
cómputo que implican los entrenamientos y uso de sistemas, para llegar
finalmente a la distribución del producto ya sea “en la nube” o de manera
local.
Este
proceso de competencia e interdependencia combinadas puede complementarse con
la información sobre supercomputadoras y clusters que nos brinda
el Top500, el ranking más utilizado a nivel mundial para evaluar la
computación de alto rendimiento, que refleja los avances de los chips
especiales para IA, los aceleradores de infraestructuras críticas y la
concentración geográfica de sistemas de cómputo de máximo poder.
Los 10 supercomputadores más
potentes del mundo noviembre de 2025 eran, en este orden, Frontier
(Estados Unidos), Aurora (Estados Unidos), Eagle (Estados Unidos),
Fugaku (Japón), Leonardo (Italia/UE), Summit (Estados Unidos), Sierra
(Estados Unidos), MareNostrum (España), Lumi (Finlandia-UE), Polaris
(Estados Unidos) (Top500 Project,
2025).
Este listado nos brinda información muy interesante:
·
En primer lugar, como es obvio, muestra el
protagonismo de los Estados Unidos, donde se encuentran seis de las 10
supercomputadoras más potentes del mundo, mientras que no hay en el listado
ninguna en China ¿Signo de debilidad? No. China ha decidido dejar de reportar
internacionalmente sobre la capacidad de sus supercomputadoras, por lo tanto,
no hay información oficial. No obstante, Dongarra (2022) y Shilov
(2023), entre otros, sostienen que las supercomputadoras chinas Sunway
Oceanlite y Tianhe-3 tienen un rendimiento que las ubicaría en el top cinco.
·
De las 10 supercomputadoras que encabezan el top
500, las primeras dos tienen lo que se denomina capacidad exascale; esto
es, operan en el rango de al menos un exaflop (10¹⁸ operaciones por segundo).
Nuevamente, sin datos oficiales, las estimaciones realizadas por los autores
antes nombrados sobre el poder de cálculo de las máquinas chinas sugieren que
el país también podría contar con dos supercomputadoras trabajando en exascale.
·
Aun cuando el Estado no es el principal impulsor
del desarrollo de la IA, su rol se ve claramente al repasar el listado: de las
diez supercomputadoras más potentes del mundo, nueve se encuentran en
consorcios públicos o laboratorios nacionales.
·
Únicamente Eagle (en la tercera posición)
es propiedad de un proveedor comercial que brinda servicios de cloud
computing: Microsoft.
Este recorrido es suficiente para explicar la importancia de
las políticas de control de exportaciones en esta industria. Países Bajos, por
ejemplo, ha establecido regulaciones específicas para la exportación de equipos
avanzados de litografía a China bajo presión de los Estados Unidos.
La infraestructura física, por su parte, enfrenta un fuerte
cuello de botella energético, otro de los límites físicos con que se topa el
sector: una serie de estudios (Patterson
et al 2021; Thompson y Spanuth, 2021;
Chamness,
2025; Rusell,
2025) muestran que el crecimiento de la demanda computacional supera los
avances que se producen en materia de eficiencia energética. El resultado es
una incipiente pero clara competencia entre los grandes del sector de la IA por
acceder a redes eléctricas de baja intensidad de carbono y, en términos más
extensos, la incorporación de serias dudas sobre la sostenibilidad a largo
plazo del modelo actual de expansión de la IA.
En este escenario, las ciencias sociales cumplen un papel
indispensable para complementar las aproximaciones técnico-económicas. Las
decisiones sobre controles de exportación, incentivos fiscales, localización de
datacenters, subsidios para fabricación y requisitos ambientales emergen
tanto de restricciones físicas y económicas como de marcos institucionales, prioridades
políticas, fortaleza democrática y capacidad institucional de los Estados y las
relaciones entre estos y las empresas privadas.
A su vez, el ritmo de adopción tecnológica depende de
factores como coordinación regulatoria, relaciones comerciales internacionales,
establecimiento de alianzas estratégicas, definición de estándares
internacionales y negociaciones multilaterales dentro del complejo ecosistema
de IA, trayendo al centro de las discusiones asunto de justicia digital, un
espacio conceptual y epistemológico cuyo crecimiento necesita de investigación
interdisciplinaria con fuerte participación de las ciencias sociales.
Como hemos sostenido en reiteradas ocasiones en nuestro
blog, la expansión acelerada de la IA no es un fenómeno puramente tecnológico,
sino que implica una reconfiguración del orden político mundial. Las ciencias
sociales deben tomar su lugar en los debates sobre impactos distributivos,
análisis político y social, estudios de política industrial, predicción de escenarios
geopolíticos, desarrollo de herramientas para la protección ambiental y el
análisis de riesgos, entre muchas ventanas de acción posibles.
Sin esa mirada múltiple sobre los hechos y percepciones
sociales del desarrollo de la IA no será posible entender el significado
integral de qué tipo de infraestructura digital se está construyendo, quién se
beneficiará de ella, y cuáles serán sus consecuencias en la vida de las
personas.
Es demasiado lo que está en juego como para dejarlo solo en
manos de un puñado de técnicos y expertos del campo informático. Es
indispensable meter las manos en el barro de la IA antes de que otros decidan,
ante el silencio y la mirada atónita de los científicos sociales, porque
entonces ya será muy tarde.
Bibliografia
ASML.
(2024). Export controls and lithography systems. Government of the
Netherlands. https://www.government.nl/topics/export-controls-of-strategic-goods
Chamness,
L. (2025, 3 de octubre) The Hidden Environmental Cost of Advanced AI Chips.
TechInsights. https://library.techinsights.com/hg-content/35313f98-2500-44f3-8a28-6dd7d8ceccf2
Chen, X., Han, L., Bhagavathula, A., & Gupta, U. (2025).
CarbonClarity: Understanding
and addressing uncertainty in embodied carbon for sustainable computing.
arXiv. https://doi.org/10.48550/arXiv.2507.01145
Dongarra,
J. (2022). A New Era in Computing: Exascale Systems and Their Implications.
Communications of the ACM, 65(6), 34-36
International
Energy Agency. (2024). Global Critical Minerals Outlook 2024. https://www.iea.org/reports/global-critical-minerals-outlook-2024
Mordor
Intelligence. (2024). AI
Accelerators Market. Growth, trends, forecasts (2025-2030). https://www.mordorintelligence.com/industry-reports/ai-accelerators-market
OECD. (2024a).
Mapping the global semiconductor value chain. OECD Publishing. https://www.oecd.org/content/dam/oecd/en/publications/reports/2025/06/mapping-the-semiconductor-value-chain_5ba52971/4154cdbf-en.pdf
OECD.
(2024b). The chip landscape: Economic, geopolitical and environmental
dimensions of semiconductors. OECD Publishing. https://www.oecd.org/content/dam/oecd/en/publications/reports/2025/12/the-chip-landscape_27ef5d87/02dbd028-en.pdf
Patterson,
D.; Gonzalez, J.; Le, Q.; Liang, C.; Munguia, L-M.; Rothchild, D.; So, D.;
Texier, M. y Dean, J. (2021) Carbon Emissions and Large Neural Network
Training. https://arxiv.org/abs/2104.10350
Rteil, N. (2025, 18 de septiembre). Understanding
GPU’s energy and environmental impact – Part I. Interact. https://interactdc.com/posts/understanding-gpus-energy-and-environmental-impact-part-i/
Rusell, S.
(2025) Global AI GPU manufacturing carbon emissions forecast 2026-2030.
TechInsights. https://library.techinsights.com/hg-content/d77d2810-28cb-4f7b-bcad-17c937a10b41#moduleName=My+Library&reportCode=SME-2510-805&subscriptionId=null&channelId=null&reportName=Global+AI+GPU+Manufacture+Carbon+Emissions+Forecast%252C+2026-2030
Semiconductor
Industry Association (2024). State of the U.S. Semiconductor Industry. SIA. https://www.semiconductors.org/wp-content/uploads/2024/10/SIA_2024_State-of-Industry-Report.pdf
Shilov, A.
(2023, 10 de Agosto). China
builds exascale supercomputer with 19.2 million cores. Tom’s Hardware. https://www.tomshardware.com/news/china-builds-exascale-supercomputer-with-192-million-cores
Synergy
Research Group. (2025, 19 de noviembre). Cloud Market Share Trends. https://www.srgresearch.com/articles/cloud-market-share-trends-big-three-together-hold-63-while-oracle-and-the-neoclouds-inch-higher
TechInsights
(2025a, 4 de diciembre). Majority of emissions from semiconductor manufacturing
come from the fabrication of die. https://www.techinsights.com/blog/majority-emissions-semiconductor-manufacturing-come-fabrication-die
TechInsights.
(2025b, 4 de diciembre). AI GPU growth directly impacts carbon
emission growth through 2030. https://www.techinsights.com/blog/ai-gpu-growth-directly-impacts-carbon-emission-growth-through-2030
Thompson,
N., y Spanuth, S. (2021). The Decline of Computers as a General Purpose
Technology. Communications of the ACM, 64(3), 64-72. https://doi.org/10.1145/3430936
Top500
Project. (2025). TOP500 Supercomputer Sites. https://www.top500.org/lists/top500/2025/11
TSMC.
(2024). Annual Report 2024. https://investor.tsmc.com/sites/ir/annual-report/2024/2024%20Annual%20Report-E.pdf