IA agéntica y geopolítica de la toma de decisiones

Por Javier Surasky

 


En el debate actual sobre IA, la atención pública se ha concentrado en los modelos generativos y las consecuencias de sus capacidades para producir texto, imágenes, video o código. Detrás de esa atención surge una IA que responde a las solicitudes humanas con capacidad de actuar de manera autónoma, realizando tareas y tomando decisiones encadenadas en entornos complejos: la IA agéntica (WEF, 2025; IBM, s.f.).

En fase de experimentación avanzada y despliegue inicial en ámbitos como gestión organizacional, logística digital, ciberseguridad o provisión de servicios, tanto públicos y privados (BCG, 2025; McKinsey & Company, 2025; WEF, 2025), la IA agéntica implica un incremento de las capacidades técnicas y un cambio cualitativo en la forma en que se delega la toma de decisiones, con implicancias directas sobre la política, las asimetrías de poder y los posibles marcos de gobernanza global de la IA (HLAB-AI, 2024; OCDE, 2023).

Pero ¿Qué es la IA agéntica? Desde un punto de vista conceptual, son sistemas de IA orientados a la acción, o sistemas con agencia (de allí su nombre), es decir, que se separan de los modelos tradicionales, que producen resultados a partir de instrucciones puntuales, para ser actores en el mundo real. “Un agente de IA es un sistema que utiliza IA y herramientas para llevar a cabo acciones con el fin de alcanzar un objetivo dado de manera autónoma" (Bornet et al., 2025:15), por lo que puede definir objetivos, planificar secuencias de acciones, interactuar con herramientas digitales y evaluar resultados para ajustar su comportamiento (Russell y Norvig, 2004; Sapkota et al., 2025) sin necesidad de interacción o indicaciones por parte de seres humanos.

La referencia al agente, definido como quien tiene capacidad de obrar, está lejos de ser una metáfora antropomórfica, sino que describe la propiedad funcional diferencial del sistema respecto de sus predecesores. Sus bases teóricas se encuentran en el encuentro que se produjo entre la investigación sobre agentes y sistemas multiagente, los modelos fundacionales y los grandes modelos de lenguaje (McShane et al. 2024; Labaschin, 2023), que actúan en bajo arquitecturas en capas donde se integran componentes de razonamiento, organización y ejecución de acciones, conectados, mediante protocolos estandarizados, con fuentes de datos o con otros agentes (WEF, 2025; OpenAI, s.f.), dando como resultado un sistema de toma de decisiones distribuido, capaz de operar de forma continua dentro de entornos digitales cambiantes.

Así, la IA agéntica es tanto una ruptura como una continuidad. Sistemas expertos, plataformas de trading algorítmico o infraestructuras industriales automatizadas incorporan hace tiempo algún grado de delegación decisional, pero la IA agéntica logra generalizar, integrar de manera intersectorial y escalar esa habilidad.

Por todo ello, más que una novedad histórica absoluta la IA agéntica es un avance sistémico que produce un cambio cualitativo en los modelos de IA, pero también redefine su naturaleza.

Observamos una profundización de la política de la automatización, orientada por objetivos como eficiencia, eficacia, velocidad de respuesta y control sobre las acciones desplegadas, todo ello en un marco de creciente densidad sistémica del proceso de toma de decisiones y para su implementación.

Llegados a este punto, y antes de profundizar el posible impacto de una IA agéntica avanzada, es necesario detenerse un momento en la idea central de “delegación de decisiones”.

En términos generales, se puede distinguir la delegación operativa, entendida como ejecución automatizada de tareas, de la delegación táctica, que implica optimización, coordinación y selección de cursos de acción dentro de objetivos predefinidos, y la delegación estratégica, donde lo que se traspasa es la capacidad de definir objetivos y prioridades. La IA agéntica se sitúa hoy principalmente dentro de la delegación táctica, donde los sistemas adquieren capacidad para coordinar procesos complejos y tomar decisiones encadenadas, sin que ello implique necesariamente una cesión del control estratégico. Esto equivale a decir que estos sistemas gozan de autonomía funcional, pero no de autonomía política o normativa, ya que operan bajo incentivos organizacionales definidos externamente al sistema.

Aun con esas limitación, la llegada de la IA agéntica trae consigo ciertas “rupturas” o discontinuidades a las que debemos prestar atención, ya que pasamos del trabajo con modelos singulares a operar en ámbitos de ecosistemas de agentes, cuya capacidad de coordinarse y trabajar de manera conjunta es tan crítica para el modelo como su rendimiento individual. Más aún, la capacidad de trabajo conjunto es parte de la evaluación del rendimiento individual: un sistema que produzca buenos resultados de forma aislada pero no cuando interopera con otros, será deficiente desde el punto de vista de la IA agéntica (WEF, 2025; Schick et al., 2023).

El acento se mueve desde la producción de contenidos hacia la participación directa en procesos, que pueden ir desde la asignación de recursos y la gestión de flujos de trabajo hasta la ejecución de tareas en equipo y la integración con sistemas preexistentes (AWS, s.f.; IBM, s.f.) y desplaza el rol de las personas de ejecutores de acciones a supervisores, auditores y controladores de agentes de IA, lo que requiere de un rediseño de procesos organizacionales y nuevas normativas (OCDE, 2023; HLAB-AI, 2024).

Tomemos un ejemplo para hacer esto más concreto: de acuerdo con informes recientes publicados por empresas, consultorías y centros de investigación (WEF, 2025; McKinsey & Company, 2025; OpenAI, s.f.), la IA agéntica está actuando ya en la coordinación de agentes especializados en actividades de gestión de inventarios, logística, atención al cliente o mantenimiento de infraestructuras digitales, respondiendo a las necesidades que surgen en tiempo real, ejecutando de manera directa las acciones como reasignar recursos o reformar flujos de trabajo en función de cambios en condiciones externas, en un despliegue de habilidades de respuesta táctica a una velocidad siempre creciente, lo que hace que las operaciones regulares de las organizaciones que adoptan IA agéntica ganen en eficiencia.

La combinación de autonomía relativa (táctica y funcional) sumada al aumento de la velocidad de ejecución y el potencial de escalabilidad propio de la IA agéntica ya revoluciona la lógica de toma de decisiones, especialmente en sectores donde la rapidez y la coordinación de respuestas son críticos.

Pero ese desplazamiento produce consecuencias políticas y de seguridad que exceden lo meramente técnico (Mitre y Predd, 2025). Es aquí donde comienza a verse con mayor claridad la importancia política de la IA agéntica: al ampliar y fortalecer capacidades que ya eran consideradas estratégicas en la economía digital, la seguridad o la gestión de políticas públicas, entre otros sectores, el nuevo rol de agente que asume la IA produce ventajas competitivas en entornos de alta complejidad a cambio de reforzar la necesidad y la dependencia de infraestructuras digitales y del acceso oportuno a datos (UNCTAD, 2024; ITU, 2025).

Se trata de un proceso que no se articula exclusivamente a través de los Estados, sino que depende de ecosistemas público-privados, que suelen tener carácter transnacional y fuerte peso del sector corporativo, que tiene la “ventaja competitiva” de actuar sin las limitaciones que las fronteras imponen a los Estados. Como consecuencia, el poder asociado a la IA agéntica sobrepasa la capacidad de actuación del Estado y queda en manos de quienes ejercen control efectivo sobre las arquitecturas decisionales que dan forma a su funcionamiento. Para decirlo en términos más simples, el poder está en manos de quien diseña cómo el sistema adopta las decisiones, no en quien las aprovecha.

Expuesto este elemento, resulta evidente que el desarrollo de IA agéntica refuerza asimetrías estructurales preexistentes (UNCTAD, 2024). Para muchos países tecnológicamente atrasados, o incluso con ciertos niveles de desarrollo considerados altos, pero fuera del trabajo en las fronteras de la tecnología, la adopción de IA agéntica puede implicar una creciente dependencia de arquitecturas decisionales externamente definidas, con márgenes mínimos de adaptación, apropiación y control soberano (Srivastava y Bullock, 2024; Colomina Saló y Galceran-Vercher, 2024). La “colonialidad del ser” se vuelve corpórea.

Vamos a detenernos en esta idea, que muestra nuevamente la necesidad de pensar la IA desde las ciencias sociales. El concepto de la colonialidad del ser es uno de los pilares del pensamiento decolonial. Se define como “la traición radical de lo trans-ontológico mediante la formación de un mundo en el que las no-éticas de la guerra se naturalizan a través de la idea de raza" (Maldonado Torres, 2007:267).

Lo trans-ontológico presenta una relación ética primordial en la colonialidad que es la dádiva, por parte del yo-colonizador, al Otro-colonizado. Esa relación de imposición de superioridad del “Yo” por degradación del “Otro” es expresada como una traición base de la colonialidad, que se expresa en la colonialidad del ser por la asunción por parte del colonizado de la naturalidad de esa lógica y resulta en un orden en que “las no éticas de la guerra”, es decir el asesinato, la violación, etc., quedan justificadas debido al concepto de “raza” (siendo la raza del colonizador la superior y la del colonizado la inferior).  Debemos, sin embargo, especificar que la noción de raza de la cita es el punto de partida para la inclusión de otras variables, como el género. Lo que decimos, entonces, es que la IA agéntica podría acabar dando cuerpo físico a esta relación que, hasta ahora, era visible solo en sus consecuencias, pero incorpórea.

Para reforzar esta idea podemos referirnos a la adopción de arquitecturas agénticas estandarizadas para su adopción en contextos culturales que implican cosmovisiones y valores diferentes y capacidades institucionales desiguales. La integración de los sistemas de IA agéntica en infraestructuras digitales críticas como plataformas de control de provisión de energía o de coordinación económica, deja a los Estados que no tienen capacidad de diseño de arquitecturas decisionales propias a merced de las que establezcan otros actores dominantes, reproduciendo la relación “Yo-Otro” en términos digitales. Bajo pretextos, con suficiente asidero, de interoperabilidad, acaban generando subordinación a esquemas decisionales externamente impuestos, condicionando decisiones tácticas propias a lógicas de diseño, criterios de optimización y marcos normativos incorporados en los sistemas agénticos, dando un nuevo golpe a la justicia y la soberanía digitales (UNCTAD, 2024; ITU, 2025). En este sentido, el riesgo asociado a la IA agéntica es estructural y probabilístico, más que determinista, y depende de configuraciones sociales, culturales, políticas e institucionales concretas.

Como consecuencia, es posible hablar de una “geopolítica de la delegación de decisiones” como categoría analítica, pero no como teoría ni como predicción determinista. Por ello, no afirmamos que la IA agéntica haya producido una transformación del orden internacional, sino que nos limitamos a señalar que introduce una trayectoria plausible de reconfiguración del poder asociada a la delegación de decisiones tácticas, lo que se refleja en un desplazamiento en la forma en que se ejerce el poder en contextos donde esas decisiones son justamente las más relevantes, y la definición de arquitecturas decisionales un recurso de proyección internacional con valor, ahora sí, estratégico.

Los cambios que genera esta geopolítica de delegación de decisiones aparecen en varios niveles. En el plano económico, otorga ventajas competitivas a quienes logran automatizar y coordinar procesos complejos de manera más eficiente (McKinsey & Company, 2025; BCG, 2025), en el de seguridad crea oportunidades de automatización de funciones sensibles, y en términos amplios es origen de riesgos de errores sistémicos, especialmente cuando existen niveles altos de interacción entre actores con objetivos en conflicto en contextos de alta incertidumbre (Mitre y Predd, 2025).

Pero no todo lo que aporta la IA agéntica implica riesgos y presiones en el campo de la geopolítica internacional, ya que, mediante gestión, gobernanza y acompañamiento experto, es posible avanzar procesos democráticos globales de estandarización técnica de estos sistemas, en la definición equitativa de marcos de interoperabilidad e incluso en la reducción de barreras de entrada al acceso a tecnologías de punta. Todo ello no dependerá de la tecnología, sino de decisiones políticas y de la capacidad de actores con intereses diferentes para participar e influir en los procesos de debate.

Aquí volvemos a un tema que solo vamos a mencionar porque lo hemos tratado en blogs anteriores; en despliegue temprano de sistemas agénticos permite a los primeros implementadores fijar estándares de facto que acaban condicionando a los demás, produciendo el fenómeno jurídico de “captura regulatoria”, conocido desde hace décadas y definido por Carpenter y Moss (2014:13) como “el resultado o el proceso mediante el cual la regulación, en la ley o en la aplicación, se desvía de manera consistente o repetida del interés público hacia el interés de la industria regulada, por la intención y acción de la propia industria”.

Sin embargo, si en el marco general de la gobernanza de la IA los progresos son lentos y difíciles por los conflictos entre potencias, produciendo un fuerte desfasaje entre progreso normativo-institucional global y avance tecnológico, en el sector específico de la IA agéntica esto se ve agravado, ya que la mayoría de los instrumentos regulatorios actuales se concentran en modelos o aplicaciones individuales, pero no son aptos para aplicarse a sistemas distribuidos, adaptativos y en interacción constante con otros sistemas y agentes (HLAB-AI, 2024; OCDE, 2023).

A ello se suma que nos encontramos con que “las regulaciones actuales no pueden hacer frente a la revolución de la IA debido al problema de ritmo y al dilema de Collingridge” (Tehrani, 2022:21), que se expresa como una tensión irresoluble propia del campo de la tecnología: en fases tempranas del desarrollo de una nueva tecnología es fácil modificarla o regularla, pero difícil prever sus impactos sociales, económicos o políticos; en su fase de madurez, es decir cuando llegamos a ver esos impactos, la tecnología ya se encuentras inserta en la vida social y económica mundial, por lo que se vuelve muy difícil o políticamente inviable regularla (Collingridge, 1980:17-18)

Por ello la IA agéntica no es “otro avance” en el campo de la IA, sino un cambio cualitativo que habilita nuevas formas de ejercicio del poder a través de sistemas digitales. Como lo señalamos, ya no se trata de controlar las decisiones de otros, sino de tomar el mando sobre la forma en que las decisiones son adoptadas.

Aquellos que no logren comprender y tomar parte del gobierno de la IA agéntica en el nivel internacional, deberán aceptar el riesgo de pensar sus políticas mirando al mundo con lentes ajenos sin siquiera saberlo.

 

Referencias

AWS (Amazon Web Services) (s.f.). What is Agentic AI? https://aws.amazon.com/what-is/agentic-ai/

BCG (Boston Consulting Group) (2025). AI Agents. https://www.bcg.com/capabilities/artificial-intelligence/ai-agents

Bornet, P.; Wirtz, J.; Davenport, T.H.; De Cremer, D.; Evergreen, B.; Fersht, P.; Gohel, R. y Khiyara, S. (2025). Agentic Artificial Intelligence: Harnessing AI Agents to Reinvent Business, Work, and Life. World Scientific Publishing Co. Pte. Ltd.

Carpenter, D. y Moss, D.A. (Eds.) (2014). Preventing regulatory capture: Special interest influence and how to limit it. Cambridge University Press.

Collingridge, D. (1980). The Social Control of Technology. Frances Pinter Publishers Ltd.

Colomina Saló, C., y Galceran-Vercher, M. (2024). Las otras geopolíticas de la inteligencia artificial. Revista CIDOB d’Afers Internacionals, (138), 27–50.

HLAB-AI (UN High-Level Advisory Body on Artificial Intelligence) (2024). Governing AI for humanity. United Nations. https://www.un.org/sites/un2.un.org/files/governing_ai_for_humanity_final_report_en.pdf

IBM (s.f.). What is agentic AI? https://www.ibm.com/think/topics/agentic-ai

ITU (International Telecommunication Union) (2025). AI Standards for Global Impact: From Governance to Action. 2025 Report. https://www.aigl.blog/ai-standards-for-global-impact-itu-2025/

Labaschin, B. (2023). What are AI agents? When and how to use LLM agents. O’Reilly Media.

McKinsey & Company (2025). Seizing the agentic AI advantage. https://www.mckinsey.com/~/media/mckinsey/business%20functions/quantumblack/our%20insights/seizing%20the%20agentic%20ai%20advantage/seizing-the-agentic-ai-advantage.pdf

McShane, M.; Nirenburg, S. y English, J. (2024). Agents in the Long Game of AI. Computational Cognitive Modeling for Trustworthy, Hybrid AI. MIT Press

Mitre, J. y Predd, J.B. (2025, 10 de febrero). Artificial General Intelligence's Five Hard National Security Problems. Rand Corporation. https://www.rand.org/pubs/perspectives/PEA3691-4.html

OCDE. (Organization for Economic Co-operation and Development) (2023). Advancing accountability in artificial intelligence. OECD Digital Economy Papers, (349). https://www.oecd.org/content/dam/oecd/en/publications/reports/2023/02/advancing-accountability-in-ai_753bf8c8/2448f04b-en.pdf

OpenAI (s.f.). A practical guide to building agents. https://cdn.openai.com/business-guides-and-resources/a-practical-guide-to-building-agents.pdf

Russell, S. J. y Norvig, P. (2004). Artificial intelligence: A modern approach, (2nd Edition). Pearson.

Sapkota, R.; Roumeliotis, K. y Karkee, M. (2025). AI Agents vs. Agentic AI: A Conceptual taxonomy, applications and challenges. Information Fusion, (126). Elsevier.

Schick, T.; Dwivedi-Yu; J.; Dessì, R.; Raileanu, R.; Lomeli, M.; Hambro, E.; Zettlemoyer, L.; Cancedda, N. y Scialom, T. (2023). Toolformer: Language Models Can Teach Themselves to Use Tools. 37th Conference on Neural Information Processing Systems (NeurIPS). https://proceedings.neurips.cc/paper_files/paper/2023/file/d842425e4bf79ba039352da0f658a906-Paper-Conference.pdf

Srivastava, S., y Bullock, J. (2024). AI, global governance, and digital sovereignty. https://arxiv.org/pdf/2410.17481

Tehrani, P.M. (Ed.) (2022). Regulatory Aspects of Artificial Intelligence on Blockchain. IGI Global.

UNCTAD (United Nations Conference on Trade and Development) (2024). Digital Economy Report 2024. https://unctad.org/system/files/official-document/der2024_en.pdf

WEF (World Economic Forum) (2025). AI agents in action: Foundations for evaluation and governance. https://reports.weforum.org/docs/WEF_AI_Agents_in_Action_Foundations_for_Evaluation_and_Governance_2025.pdf