El Derecho Internacional frente a la definición de Inteligencia Artificial



Por Javier Surasky


Construir un acuerdo global sobre qué necesitamos regular es el paso indispensable para crear su gobernanza. Necesitamos avances rápidos en este punto si queremos establecer un régimen global de gestión de una IA ética, orientada al desarrollo sostenible. Si no lo logramos, las consecuencias son difíciles de prever. Estamos a tiempo, pero el reloj está corriendo.

La Inteligencia Artificial (IA) ha surgido como una fuerza transformadora de las estructuras sociales y económicas en el siglo XXI. Su rápida extensión a todas las áreas de la vida produce interrogantes y desafíos para el derecho internacional (DI), un sistema legal construido para regular el comportamiento de entidades territorializadas que se encuentra ante la necesidad de incorporar a entidades autónomas basadas en datos y desterritorializadas.

Series como Black Mirror se concentran en el lado más oscuro de la IA y sus posibilidades, pero la mayoría de sus capítulos parten de mundos ya distópicos, donde las personas han perdido sensibilidad humana, como ocurre en “Oso Blanco” (Temporada 2, episodio 2), especialmente recomendado para los interesados en el derecho. Los capítulos más perturbadores, sin embargo, son aquellos donde el marco en que transcurren las acciones bien podría ser nuestro mundo actual, tal como ocurre en “Gente Común” (Temporada 7, episodio 1), donde nos sentimos reflejados y en el cual las empresas no tienen límite en su gestión de las tecnologías digitales de punta.

En este capítulo vamos a estudiar los primeros esfuerzos por definir jurídicamente el concepto de IA

Partimos de la base de que el derecho internacional se crea y evoluciona como respuesta y en reflejo de las necesidades de la sociedad internacional, los que hace que los cambios en las formas de relacionarnos, producir bienes y servicios, comunicarnos, etc, que llegan de la mano de la IA impacte profundamente en sus formas.

SI bien no se trata de la primera “revolución tecnológica” a la que debe responder el derecho internacional (piense en la máquina de vapor, la electricidad, la aviación civil o internet, entre múltiples ejemplos posibles) hay una diferencia sustancial entre esta y las anteriores: el desarrollo de la IA está más descentralizado, lo que significa que la IA se desarrolla bajo un ecosistema de “creación distribuida” de difícil control por un Estado.

Establecer su regulación internacional requiere, como primer paso, alcanzar una definición consensuada de qué entender por IA, un proceso que ya se ha iniciado, pero aún no ha llegado a cristalizarse.

Existen dos grandes acercamientos en conflicto sobre cómo abordar jurídicamente la IA, que dificultan alcanzar una definición compartida:

·         Por un lado, están quienes priorizan el control de sus riesgos por sobre la velocidad del desarrollo de sus capacidades, propugnando poner controles sobre el desarrollo de la IA. En este campo se ubican la UE y los más importantes expertos internacionales en la materia.

·         Por otro lado, tenemos la posición de quienes prefieren liberar la investigación y desarrollo de la IA a las fuerzas del mercado, señalando que la intervención del Estado mediante regulaciones no hará más que demorar la extensión del beneficio de sus progresos. En esta línea hallamos a los EE.UU.

En medio de este tira y afloja, las primeras definiciones internacionales de IA se basan en gran medida en perspectivas técnicas. Por ejemplo, la norma ISO 22989 de 2022 define la IA como “investigación y desarrollo de mecanismos y aplicaciones de sistemas de IA” (3.1.4), y sistema de inteligencia artificial como “sistema de ingeniería que genera resultados como contenido, pronósticos, recomendaciones o decisiones para un conjunto determinado de objetivos definidos por el ser humano”. Si bien es útil, la definición carece de respaldo gubernamental, peso legal o consideración de las dimensiones éticas y sociales cruciales para definir derechos y responsabilidades.

Aún sin fuerza jurídica, la Recomendación del Consejo sobre Inteligencia Artificial de la OCDE de 2019 (OCDE/LEGAL/0449) utiliza la expresión “sistema de IA” al que define como un “sistema basado en máquinas que, para un conjunto dado de objetivos definidos por el ser humano, puede realizar predicciones, recomendaciones o tomar decisiones que influyen en entornos reales o virtuales. Los sistemas de IA están diseñados para operar con distintos niveles de autonomía” (anexo, sección 1.1).

Hallamos la centralidad del soporte en máquinas, la autonomía y la referencia a elementos de salida restringidos a predicciones, recomendaciones y toma de decisiones.

La Recomendación sobre la ética de la inteligencia artificial de la UNESCO de 2021, por su parte, señala que "los sistemas de IA son tecnologías de procesamiento de la información que integran modelos y algoritmos que producen una capacidad para aprender y realizar tareas cognitivas, dando lugar a resultados como la predicción y la adopción de decisiones en entornos materiales y virtuales. Los sistemas de IA están diseñados para funcionar con diferentes grados de autonomía, mediante la modelización y representación del conocimiento y la explotación de datos y el cálculo de correlaciones" (párr. 2).

El eje está puesto ahora en la función de procesamiento de información, que no es lo mismo que datos, la capacidad de aprender y de realizar tareas con aplicación del conocimiento logrado. Volvemos a encontrar menciones a la autonomía.

La primera definición que tiene carácter jurídicamente vinculante en un marco internacional es la que ofrece la Unión Europea en el artículo 3.1. de su reglamento (UE) 2024/1689 del 13 de junio de 2024, que establece normas armonizadas sobre inteligencia IA, donde define un “sistema de IA” como "un sistema basado en una máquina que está diseñado para funcionar con distintos niveles de autonomía y que puede mostrar capacidad de adaptación tras el despliegue, y que, para objetivos explícitos o implícitos, infiere de la información de entrada que recibe la manera de generar resultados de salida, como predicciones, contenidos, recomendaciones o decisiones, que pueden influir en entornos físicos o virtuales" (Art. 3.1);

Los elementos centrales aquí son el estar basado en máquinas, la autonomía, y la inferencia como medio de producción de resultados de salida.

A nivel nacional, encontramos también distintas aproximaciones y la preferencia por referirse a “sistemas de IA” al momento de realizar un abordaje jurídico.

Para la Iniciativa Nacional de Inteligencia Artificial de 2020 de los Estados Unidos, la IA se refiere a "un sistema basado en máquinas que, para un conjunto dado de objetivos definidos por el ser humano, puede realizar predicciones, recomendaciones o tomar decisiones que influyen en entornos reales o virtuales. Los sistemas de inteligencia artificial utilizan información de máquinas y humanos para: (A) percibir entornos reales y virtuales; (B) abstraer dichas percepciones en modelos mediante análisis automatizado; y (C) utilizar la inferencia de modelos para formular opciones de información o acción” (art. 3.3).

El Libro Blanco del Reino Unido para la IA de 2023 la define “por referencia a las dos características que generan la necesidad de una respuesta regulatoria a medida”: adaptabilidad y autonomía (sección 3.2.1).

China carece de una definición legal unificada, pero el Reglamento de la Industria de IA de 2022 de Shanghái se refiere a la IA como sistemas “de teorías, métodos, tecnologías y aplicaciones que utilizan computadoras y máquinas controladas por computadora para simular, extender y expandir la inteligencia humana, percibir el entorno, adquirir conocimientos y utilizarlos para lograr resultados óptimos” (artículo 2).

Brasil no ha aprobado aún una ley sobre IA, sin embrago un proyecto de ley sobre uso de la IA ya tiene media sanción por el Senado. Su artículo 2.1. define “Sistema de inteligencia artificial” como "sistema informático, con diferentes grados de autonomía, diseñado para inferir y alcanzar un conjunto dado de objetivos, utilizando enfoques basados en aprendizaje automático y/o lógica y representación del conocimiento, a través de datos de entrada procedentes de máquinas o humanos, con el objetivo de producir predicciones, recomendaciones o decisiones que puedan influir en el entorno virtual o real".

Como resulta evidente, más allá de algunos elementos comunes, las definiciones mantienen importantes diferencias respecto de elementos claves como la mención o no de tecnologías específicas, por ejemplo, el aprendizaje automático, la consideración de las máquinas (hardware) o los procesos (software) como referencia central, la extensión de la autonomía y de los resultados (outputs).

¿Por qué es esta diversidad importante? Porque marca el punto de partida para la construcción de una definición común, indispensable para poder abordar múltiples problemas que requieren de soluciones urgentes: la seguridad de la IA, su impacto en los derechos humanos, el derecho humanitario, el desarrollo sostenible y la protección del medio ambiente. Sin ella, no podemos construir los marcos legales necesarios para gestionar la IA de forma responsable.

De cara al futuro, algo está claro: regular y gestionar la IA es el reto más urgente que enfrenta el derecho internacional hoy en día. Una definición unificada es nuestro primer paso para garantizar que la IA sirva a la humanidad de forma ética y sostenible.