Por Javier Surasky
En el debate actual sobre IA, la atención pública se ha concentrado en los modelos generativos y las consecuencias de sus capacidades para producir texto, imágenes, video o código. Detrás de esa atención surge una IA que responde a las solicitudes humanas con capacidad de actuar de manera autónoma, realizando tareas y tomando decisiones encadenadas en entornos complejos: la IA agéntica (WEF, 2025; IBM, s.f.).
En fase de
experimentación avanzada y despliegue inicial en ámbitos como gestión
organizacional, logística digital, ciberseguridad o provisión de servicios,
tanto públicos y privados (BCG, 2025; McKinsey & Company, 2025; WEF,
2025), la IA agéntica implica un incremento de las capacidades técnicas y un cambio
cualitativo en la forma en que se delega la toma de decisiones, con implicancias
directas sobre la política, las asimetrías de poder y los posibles marcos de
gobernanza global de la IA (HLAB-AI, 2024; OCDE, 2023).
Pero ¿Qué es la IA
agéntica? Desde un punto de vista conceptual, son sistemas de IA orientados a
la acción, o sistemas con agencia (de allí su nombre), es decir, que se separan
de los modelos tradicionales, que producen resultados a partir de instrucciones
puntuales, para ser actores en el mundo real. “Un agente de IA es un sistema
que utiliza IA y herramientas para llevar a cabo acciones con el fin de
alcanzar un objetivo dado de manera autónoma" (Bornet et al., 2025:15),
por lo que puede definir objetivos, planificar secuencias de acciones,
interactuar con herramientas digitales y evaluar resultados para ajustar su
comportamiento (Russell y Norvig, 2004; Sapkota et al., 2025) sin necesidad de
interacción o indicaciones por parte de seres humanos.
La referencia al
agente, definido como quien tiene capacidad de obrar, está lejos de ser una
metáfora antropomórfica, sino que describe la propiedad funcional diferencial
del sistema respecto de sus predecesores. Sus bases teóricas se encuentran en el
encuentro que se produjo entre la investigación sobre agentes y sistemas
multiagente, los modelos fundacionales y los grandes modelos de lenguaje
(McShane et al. 2024; Labaschin, 2023), que actúan en bajo arquitecturas en
capas donde se integran componentes de razonamiento, organización y ejecución
de acciones, conectados, mediante protocolos estandarizados, con fuentes de datos
o con otros agentes (WEF, 2025; OpenAI, s.f.), dando como resultado un sistema de
toma de decisiones distribuido, capaz de operar de forma continua dentro de entornos
digitales cambiantes.
Así, la IA agéntica
es tanto una ruptura como una continuidad. Sistemas expertos, plataformas de trading
algorítmico o infraestructuras industriales automatizadas incorporan hace
tiempo algún grado de delegación decisional, pero la IA agéntica logra generalizar,
integrar de manera intersectorial y escalar esa habilidad.
Por todo ello, más
que una novedad histórica absoluta la IA agéntica es un avance sistémico que
produce un cambio cualitativo en los modelos de IA, pero también redefine su
naturaleza.
Observamos una
profundización de la política de la automatización, orientada por objetivos
como eficiencia, eficacia, velocidad de respuesta y control sobre las acciones
desplegadas, todo ello en un marco de creciente densidad sistémica del proceso
de toma de decisiones y para su implementación.
Llegados a este
punto, y antes de profundizar el posible impacto de una IA agéntica avanzada,
es necesario detenerse un momento en la idea central de “delegación de
decisiones”.
En términos
generales, se puede distinguir la delegación operativa, entendida como ejecución
automatizada de tareas, de la delegación táctica, que implica optimización,
coordinación y selección de cursos de acción dentro de objetivos predefinidos,
y la delegación estratégica, donde lo que se traspasa es la capacidad de
definir objetivos y prioridades. La IA agéntica se sitúa hoy principalmente dentro
de la delegación táctica, donde los sistemas adquieren capacidad para coordinar
procesos complejos y tomar decisiones encadenadas, sin que ello implique
necesariamente una cesión del control estratégico. Esto equivale a decir que
estos sistemas gozan de autonomía funcional, pero no de autonomía política o
normativa, ya que operan bajo incentivos organizacionales definidos
externamente al sistema.
Aun con esas
limitación, la llegada de la IA agéntica trae consigo ciertas “rupturas” o
discontinuidades a las que debemos prestar atención, ya que pasamos del trabajo
con modelos singulares a operar en ámbitos de ecosistemas de agentes, cuya
capacidad de coordinarse y trabajar de manera conjunta es tan crítica para el
modelo como su rendimiento individual. Más aún, la capacidad de trabajo
conjunto es parte de la evaluación del rendimiento individual: un sistema que
produzca buenos resultados de forma aislada pero no cuando interopera con otros,
será deficiente desde el punto de vista de la IA agéntica (WEF, 2025; Schick et
al., 2023).
El acento se mueve desde
la producción de contenidos hacia la participación directa en procesos, que
pueden ir desde la asignación de recursos y la gestión de flujos de trabajo
hasta la ejecución de tareas en equipo y la integración con sistemas preexistentes
(AWS, s.f.; IBM, s.f.) y desplaza el rol de las personas de ejecutores de
acciones a supervisores, auditores y controladores de agentes de IA, lo que
requiere de un rediseño de procesos organizacionales y nuevas normativas (OCDE,
2023; HLAB-AI, 2024).
Tomemos un ejemplo
para hacer esto más concreto: de acuerdo con informes recientes publicados por
empresas, consultorías y centros de investigación (WEF, 2025; McKinsey &
Company, 2025; OpenAI, s.f.), la IA agéntica está actuando ya en la coordinación
de agentes especializados en actividades de gestión de inventarios, logística,
atención al cliente o mantenimiento de infraestructuras digitales, respondiendo
a las necesidades que surgen en tiempo real, ejecutando de manera directa las
acciones como reasignar recursos o reformar flujos de trabajo en función de cambios
en condiciones externas, en un despliegue de habilidades de respuesta táctica a
una velocidad siempre creciente, lo que hace que las operaciones regulares de las
organizaciones que adoptan IA agéntica ganen en eficiencia.
La combinación de
autonomía relativa (táctica y funcional) sumada al aumento de la velocidad de
ejecución y el potencial de escalabilidad propio de la IA agéntica ya revoluciona
la lógica de toma de decisiones, especialmente en sectores donde la rapidez y
la coordinación de respuestas son críticos.
Pero ese desplazamiento
produce consecuencias políticas y de seguridad que exceden lo meramente técnico
(Mitre y Predd, 2025). Es aquí donde comienza a verse con mayor claridad la importancia
política de la IA agéntica: al ampliar y fortalecer capacidades que ya eran consideradas
estratégicas en la economía digital, la seguridad o la gestión de políticas
públicas, entre otros sectores, el nuevo rol de agente que asume la IA produce
ventajas competitivas en entornos de alta complejidad a cambio de reforzar la
necesidad y la dependencia de infraestructuras digitales y del acceso oportuno a
datos (UNCTAD, 2024; ITU, 2025).
Se trata de un
proceso que no se articula exclusivamente a través de los Estados, sino que
depende de ecosistemas público-privados, que suelen tener carácter transnacional
y fuerte peso del sector corporativo, que tiene la “ventaja competitiva” de
actuar sin las limitaciones que las fronteras imponen a los Estados. Como
consecuencia, el poder asociado a la IA agéntica sobrepasa la capacidad de
actuación del Estado y queda en manos de quienes ejercen control efectivo sobre
las arquitecturas decisionales que dan forma a su funcionamiento. Para decirlo
en términos más simples, el poder está en manos de quien diseña cómo el sistema
adopta las decisiones, no en quien las aprovecha.
Expuesto este
elemento, resulta evidente que el desarrollo de IA agéntica refuerza asimetrías
estructurales preexistentes (UNCTAD, 2024). Para muchos países tecnológicamente
atrasados, o incluso con ciertos niveles de desarrollo considerados altos, pero
fuera del trabajo en las fronteras de la tecnología, la adopción de IA agéntica
puede implicar una creciente dependencia de arquitecturas decisionales
externamente definidas, con márgenes mínimos de adaptación, apropiación y
control soberano (Srivastava y Bullock, 2024; Colomina Saló y Galceran-Vercher,
2024). La “colonialidad del ser” se vuelve corpórea.
Vamos a detenernos
en esta idea, que muestra nuevamente la necesidad de pensar la IA desde las
ciencias sociales. El concepto de la colonialidad del ser es uno de los pilares
del pensamiento decolonial. Se define como “la traición radical de lo trans-ontológico
mediante la formación de un mundo en el que las no-éticas de la guerra se
naturalizan a través de la idea de raza" (Maldonado Torres, 2007:267).
Lo trans-ontológico
presenta una relación ética primordial en la colonialidad que es la dádiva, por
parte del yo-colonizador, al Otro-colonizado. Esa relación de imposición de
superioridad del “Yo” por degradación del “Otro” es expresada como una traición
base de la colonialidad, que se expresa en la colonialidad del ser por la
asunción por parte del colonizado de la naturalidad de esa lógica y resulta en
un orden en que “las no éticas de la guerra”, es decir el asesinato, la
violación, etc., quedan justificadas debido al concepto de “raza” (siendo la
raza del colonizador la superior y la del colonizado la inferior). Debemos, sin embargo, especificar que la
noción de raza de la cita es el punto de partida para la inclusión de otras
variables, como el género. Lo que decimos, entonces, es que la IA agéntica
podría acabar dando cuerpo físico a esta relación que, hasta ahora, era visible
solo en sus consecuencias, pero incorpórea.
Para reforzar esta
idea podemos referirnos a la adopción de arquitecturas agénticas estandarizadas
para su adopción en contextos culturales que implican cosmovisiones y valores
diferentes y capacidades institucionales desiguales. La integración de los
sistemas de IA agéntica en infraestructuras digitales críticas como plataformas
de control de provisión de energía o de coordinación económica, deja a los
Estados que no tienen capacidad de diseño de arquitecturas decisionales propias
a merced de las que establezcan otros actores dominantes, reproduciendo la
relación “Yo-Otro” en términos digitales. Bajo pretextos, con suficiente
asidero, de interoperabilidad, acaban generando subordinación a esquemas decisionales
externamente impuestos, condicionando decisiones tácticas propias a lógicas de
diseño, criterios de optimización y marcos normativos incorporados en los
sistemas agénticos, dando un nuevo golpe a la justicia y la soberanía digitales
(UNCTAD, 2024; ITU, 2025). En este sentido, el riesgo asociado a la IA agéntica
es estructural y probabilístico, más que determinista, y depende de
configuraciones sociales, culturales, políticas e institucionales concretas.
Como consecuencia,
es posible hablar de una “geopolítica de la delegación de decisiones” como
categoría analítica, pero no como teoría ni como predicción determinista. Por
ello, no afirmamos que la IA agéntica haya producido una transformación del
orden internacional, sino que nos limitamos a señalar que introduce una
trayectoria plausible de reconfiguración del poder asociada a la delegación de
decisiones tácticas, lo que se refleja en un desplazamiento en la forma en que
se ejerce el poder en contextos donde esas decisiones son justamente las más
relevantes, y la definición de arquitecturas decisionales un recurso de
proyección internacional con valor, ahora sí, estratégico.
Los cambios que
genera esta geopolítica de delegación de decisiones aparecen en varios niveles.
En el plano económico, otorga ventajas competitivas a quienes logran
automatizar y coordinar procesos complejos de manera más eficiente (McKinsey
& Company, 2025; BCG, 2025), en el de seguridad crea oportunidades de automatización
de funciones sensibles, y en términos amplios es origen de riesgos de errores
sistémicos, especialmente cuando existen niveles altos de interacción entre
actores con objetivos en conflicto en contextos de alta incertidumbre (Mitre y
Predd, 2025).
Pero no todo lo que
aporta la IA agéntica implica riesgos y presiones en el campo de la geopolítica
internacional, ya que, mediante gestión, gobernanza y acompañamiento experto,
es posible avanzar procesos democráticos globales de estandarización técnica de
estos sistemas, en la definición equitativa de marcos de interoperabilidad e
incluso en la reducción de barreras de entrada al acceso a tecnologías de punta.
Todo ello no dependerá de la tecnología, sino de decisiones políticas y de la
capacidad de actores con intereses diferentes para participar e influir en los
procesos de debate.
Aquí volvemos a un
tema que solo vamos a mencionar porque lo hemos tratado en blogs anteriores; en
despliegue temprano de sistemas agénticos permite a los primeros
implementadores fijar estándares de facto que acaban condicionando a los demás,
produciendo el fenómeno jurídico de “captura regulatoria”, conocido desde hace
décadas y definido por Carpenter y Moss (2014:13) como “el resultado o el
proceso mediante el cual la regulación, en la ley o en la aplicación, se desvía
de manera consistente o repetida del interés público hacia el interés de la
industria regulada, por la intención y acción de la propia industria”.
Sin embargo, si en
el marco general de la gobernanza de la IA los progresos son lentos y difíciles
por los conflictos entre potencias, produciendo un fuerte desfasaje entre
progreso normativo-institucional global y avance tecnológico, en el sector
específico de la IA agéntica esto se ve agravado, ya que la mayoría de los
instrumentos regulatorios actuales se concentran en modelos o aplicaciones
individuales, pero no son aptos para aplicarse a sistemas distribuidos,
adaptativos y en interacción constante con otros sistemas y agentes (HLAB-AI,
2024; OCDE, 2023).
A ello se suma que
nos encontramos con que “las regulaciones actuales no pueden hacer frente a la
revolución de la IA debido al problema de ritmo y al dilema de Collingridge” (Tehrani,
2022:21), que se expresa como una tensión irresoluble propia del campo de la
tecnología: en fases tempranas del desarrollo de una nueva tecnología es fácil
modificarla o regularla, pero difícil prever sus impactos sociales, económicos
o políticos; en su fase de madurez, es decir cuando llegamos a ver esos
impactos, la tecnología ya se encuentras inserta en la vida social y económica
mundial, por lo que se vuelve muy difícil o políticamente inviable regularla (Collingridge,
1980:17-18)
Por ello la IA
agéntica no es “otro avance” en el campo de la IA, sino un cambio cualitativo que
habilita nuevas formas de ejercicio del poder a través de sistemas digitales. Como
lo señalamos, ya no se trata de controlar las decisiones de otros, sino de
tomar el mando sobre la forma en que las decisiones son adoptadas.
Aquellos que no
logren comprender y tomar parte del gobierno de la IA agéntica en el nivel
internacional, deberán aceptar el riesgo de pensar sus políticas mirando al
mundo con lentes ajenos sin siquiera saberlo.
Referencias
AWS (Amazon Web Services) (s.f.). What is
Agentic AI? https://aws.amazon.com/what-is/agentic-ai/
BCG (Boston Consulting Group) (2025). AI Agents.
https://www.bcg.com/capabilities/artificial-intelligence/ai-agents
Bornet, P.; Wirtz, J.; Davenport, T.H.; De Cremer, D.;
Evergreen, B.; Fersht, P.; Gohel, R. y Khiyara, S. (2025). Agentic
Artificial Intelligence: Harnessing AI Agents to Reinvent Business, Work, and
Life. World Scientific Publishing Co. Pte. Ltd.
Carpenter, D. y Moss, D.A. (Eds.) (2014). Preventing
regulatory capture: Special interest influence and how to limit it. Cambridge
University Press.
Collingridge, D. (1980). The Social Control of
Technology. Frances Pinter
Publishers Ltd.
Colomina Saló, C.,
y Galceran-Vercher, M. (2024). Las otras geopolíticas de la inteligencia
artificial. Revista CIDOB d’Afers Internacionals, (138),
27–50.
HLAB-AI (UN High-Level Advisory Body on Artificial
Intelligence) (2024). Governing AI for humanity. United Nations.
https://www.un.org/sites/un2.un.org/files/governing_ai_for_humanity_final_report_en.pdf
IBM (s.f.). What is agentic AI? https://www.ibm.com/think/topics/agentic-ai
ITU (International Telecommunication Union) (2025).
AI Standards for Global Impact: From Governance to Action. 2025 Report.
https://www.aigl.blog/ai-standards-for-global-impact-itu-2025/
Labaschin, B. (2023). What are AI agents? When and
how to use LLM agents. O’Reilly Media.
McKinsey & Company (2025). Seizing the agentic
AI advantage. https://www.mckinsey.com/~/media/mckinsey/business%20functions/quantumblack/our%20insights/seizing%20the%20agentic%20ai%20advantage/seizing-the-agentic-ai-advantage.pdf
McShane, M.; Nirenburg, S. y English, J. (2024).
Agents in the Long Game of AI. Computational Cognitive Modeling for
Trustworthy, Hybrid AI. MIT Press
Mitre, J. y Predd, J.B. (2025, 10 de febrero). Artificial
General Intelligence's Five Hard National Security Problems. Rand
Corporation. https://www.rand.org/pubs/perspectives/PEA3691-4.html
OCDE. (Organization for Economic Co-operation and
Development) (2023). Advancing accountability in artificial intelligence.
OECD Digital Economy Papers, (349).
https://www.oecd.org/content/dam/oecd/en/publications/reports/2023/02/advancing-accountability-in-ai_753bf8c8/2448f04b-en.pdf
OpenAI (s.f.). A practical guide to building agents. https://cdn.openai.com/business-guides-and-resources/a-practical-guide-to-building-agents.pdf
Russell, S. J. y Norvig, P. (2004). Artificial
intelligence: A modern approach, (2nd Edition). Pearson.
Sapkota, R.; Roumeliotis, K. y Karkee, M. (2025). AI
Agents vs. Agentic AI: A Conceptual taxonomy, applications and challenges. Information
Fusion, (126). Elsevier.
Schick, T.; Dwivedi-Yu; J.; Dessì, R.; Raileanu, R.;
Lomeli, M.; Hambro, E.; Zettlemoyer, L.; Cancedda, N. y Scialom, T. (2023).
Toolformer: Language Models Can Teach Themselves to Use Tools. 37th
Conference on Neural Information Processing Systems (NeurIPS). https://proceedings.neurips.cc/paper_files/paper/2023/file/d842425e4bf79ba039352da0f658a906-Paper-Conference.pdf
Srivastava, S., y Bullock,
J. (2024). AI, global governance, and digital sovereignty. https://arxiv.org/pdf/2410.17481
Tehrani, P.M. (Ed.) (2022). Regulatory Aspects of
Artificial Intelligence on Blockchain. IGI Global.
UNCTAD (United Nations Conference on Trade and
Development) (2024). Digital Economy Report 2024.
https://unctad.org/system/files/official-document/der2024_en.pdf
WEF (World Economic Forum) (2025). AI agents in
action: Foundations for evaluation and governance. https://reports.weforum.org/docs/WEF_AI_Agents_in_Action_Foundations_for_Evaluation_and_Governance_2025.pdf
