Por Javier Surasky
Construir un acuerdo global sobre qué necesitamos regular es el paso indispensable para crear su gobernanza. Necesitamos avances rápidos en este punto si queremos establecer un régimen global de gestión de una IA ética, orientada al desarrollo sostenible. Si no lo logramos, las consecuencias son difíciles de prever. Estamos a tiempo, pero el reloj está corriendo.
La
Inteligencia Artificial (IA) ha surgido como una fuerza transformadora de las
estructuras sociales y económicas en el siglo XXI. Su rápida extensión a todas
las áreas de la vida produce interrogantes y desafíos para el derecho
internacional (DI), un sistema legal construido para regular el comportamiento de
entidades territorializadas que se encuentra ante la necesidad de incorporar a
entidades autónomas basadas en datos y desterritorializadas.
Series
como Black Mirror se concentran en el lado más oscuro de la IA y sus
posibilidades, pero la mayoría de sus capítulos parten de mundos ya distópicos,
donde las personas han perdido sensibilidad humana, como ocurre en “Oso Blanco”
(Temporada 2, episodio 2), especialmente recomendado para los interesados en el
derecho. Los capítulos más perturbadores, sin embargo, son aquellos donde el
marco en que transcurren las acciones bien podría ser nuestro mundo actual, tal
como ocurre en “Gente Común” (Temporada 7, episodio 1), donde nos sentimos
reflejados y en el cual las empresas no tienen límite en su gestión de las
tecnologías digitales de punta.
En
este capítulo vamos a estudiar los primeros esfuerzos por definir jurídicamente
el concepto de IA
Partimos
de la base de que el derecho internacional se crea y evoluciona como respuesta
y en reflejo de las necesidades de la sociedad internacional, los que hace que los
cambios en las formas de relacionarnos, producir bienes y servicios,
comunicarnos, etc, que llegan de la mano de la IA impacte profundamente en sus
formas.
SI
bien no se trata de la primera “revolución tecnológica” a la que debe responder
el derecho internacional (piense en la máquina de vapor, la electricidad, la
aviación civil o internet, entre múltiples ejemplos posibles) hay una
diferencia sustancial entre esta y las anteriores: el desarrollo de la IA está más descentralizado, lo que significa
que la IA se desarrolla bajo un ecosistema de “creación distribuida” de difícil
control por un Estado.
Existen
dos grandes acercamientos en conflicto sobre cómo abordar jurídicamente la IA,
que dificultan alcanzar una definición compartida:
·
Por
un lado, están quienes priorizan el control de sus riesgos por sobre la
velocidad del desarrollo de sus capacidades, propugnando poner controles sobre
el desarrollo de la IA. En este campo se ubican la UE y los más importantes
expertos internacionales en la materia.
·
Por
otro lado, tenemos la posición de quienes prefieren liberar la investigación y
desarrollo de la IA a las fuerzas del mercado, señalando que la intervención
del Estado mediante regulaciones no hará más que demorar la extensión del
beneficio de sus progresos. En esta línea hallamos a los EE.UU.
En
medio de este tira y afloja, las primeras definiciones internacionales de IA se
basan en gran medida en perspectivas técnicas. Por ejemplo, la norma ISO 22989 de 2022 define la IA
como “investigación y desarrollo de mecanismos y aplicaciones de sistemas de IA”
(3.1.4), y sistema de inteligencia artificial como “sistema de ingeniería que
genera resultados como contenido, pronósticos, recomendaciones o decisiones
para un conjunto determinado de objetivos definidos por el ser humano”. Si bien
es útil, la definición carece de respaldo gubernamental, peso legal o
consideración de las dimensiones éticas y sociales cruciales para definir
derechos y responsabilidades.
Aún
sin fuerza jurídica, la Recomendación del
Consejo sobre Inteligencia Artificial de la OCDE de 2019
(OCDE/LEGAL/0449) utiliza la expresión “sistema de IA” al que define como un
“sistema basado en máquinas que, para un conjunto dado de objetivos definidos
por el ser humano, puede realizar predicciones, recomendaciones o tomar
decisiones que influyen en entornos reales o virtuales. Los sistemas de IA
están diseñados para operar con distintos niveles de autonomía” (anexo, sección
1.1).
Hallamos
la centralidad del soporte en máquinas, la autonomía y la referencia a
elementos de salida restringidos a predicciones, recomendaciones y toma de
decisiones.
La Recomendación sobre la ética de la inteligencia artificial de la UNESCO de 2021, por su parte, señala que "los sistemas de IA son tecnologías de procesamiento de la información que integran modelos y algoritmos que producen una capacidad para aprender y realizar tareas cognitivas, dando lugar a resultados como la predicción y la adopción de decisiones en entornos materiales y virtuales. Los sistemas de IA están diseñados para funcionar con diferentes grados de autonomía, mediante la modelización y representación del conocimiento y la explotación de datos y el cálculo de correlaciones" (párr. 2).
El
eje está puesto ahora en la función de procesamiento de información, que no es
lo mismo que datos, la capacidad de aprender y de realizar tareas con
aplicación del conocimiento logrado. Volvemos a encontrar menciones a la
autonomía.
La primera definición que tiene carácter jurídicamente vinculante en un marco internacional es la que ofrece la Unión Europea en el artículo 3.1. de su reglamento (UE) 2024/1689 del 13 de junio de 2024, que establece normas armonizadas sobre inteligencia IA, donde define un “sistema de IA” como "un sistema basado en una máquina que está diseñado para funcionar con distintos niveles de autonomía y que puede mostrar capacidad de adaptación tras el despliegue, y que, para objetivos explícitos o implícitos, infiere de la información de entrada que recibe la manera de generar resultados de salida, como predicciones, contenidos, recomendaciones o decisiones, que pueden influir en entornos físicos o virtuales" (Art. 3.1);
Los
elementos centrales aquí son el estar basado en máquinas, la autonomía, y la
inferencia como medio de producción de resultados de salida.
A
nivel nacional, encontramos también distintas aproximaciones y la preferencia
por referirse a “sistemas de IA” al momento de realizar un abordaje jurídico.
Para la Iniciativa Nacional de Inteligencia Artificial de 2020 de los Estados Unidos, la IA se refiere a "un sistema basado en máquinas que, para un conjunto dado de objetivos definidos por el ser humano, puede realizar predicciones, recomendaciones o tomar decisiones que influyen en entornos reales o virtuales. Los sistemas de inteligencia artificial utilizan información de máquinas y humanos para: (A) percibir entornos reales y virtuales; (B) abstraer dichas percepciones en modelos mediante análisis automatizado; y (C) utilizar la inferencia de modelos para formular opciones de información o acción” (art. 3.3).
El Libro Blanco del Reino Unido para la IA de 2023 la define “por
referencia a las dos características que generan la necesidad de una respuesta
regulatoria a medida”: adaptabilidad y autonomía (sección 3.2.1).
China
carece de una definición legal unificada, pero el Reglamento de la Industria de
IA de 2022 de Shanghái se refiere a la IA como sistemas “de teorías, métodos,
tecnologías y aplicaciones que utilizan computadoras y máquinas controladas por
computadora para simular, extender y expandir la inteligencia humana, percibir
el entorno, adquirir conocimientos y utilizarlos para lograr resultados
óptimos” (artículo 2).
Brasil no ha aprobado aún una ley sobre IA, sin embrago un proyecto de ley sobre uso de la IA ya tiene media sanción por el Senado. Su artículo 2.1. define “Sistema de inteligencia artificial” como "sistema informático, con diferentes grados de autonomía, diseñado para inferir y alcanzar un conjunto dado de objetivos, utilizando enfoques basados en aprendizaje automático y/o lógica y representación del conocimiento, a través de datos de entrada procedentes de máquinas o humanos, con el objetivo de producir predicciones, recomendaciones o decisiones que puedan influir en el entorno virtual o real".
Como
resulta evidente, más allá de algunos elementos comunes, las definiciones
mantienen importantes diferencias respecto de elementos claves como la mención
o no de tecnologías específicas, por ejemplo, el aprendizaje automático, la
consideración de las máquinas (hardware) o los procesos (software)
como referencia central, la extensión de la autonomía y de los resultados (outputs).
¿Por qué es esta diversidad importante? Porque marca el punto de partida para la construcción de una definición común, indispensable para poder abordar múltiples problemas que requieren de soluciones urgentes: la seguridad de la IA, su
impacto en los derechos humanos, el derecho humanitario, el desarrollo
sostenible y la protección del medio ambiente. Sin ella, no podemos construir
los marcos legales necesarios para gestionar la IA de forma responsable.
De
cara al futuro, algo está claro: regular y gestionar la IA es el reto más
urgente que enfrenta el derecho internacional hoy en día. Una definición
unificada es nuestro primer paso para garantizar que la IA sirva a la humanidad
de forma ética y sostenible.