Por Javier Surasky-
La IA ya forma parte de la vida de la mayor parte de las
personas que habitamos este planeta. Se ha integrado en nuestros buscadores de
Internet (Google), esquemas de transporte (Uber, Waze, Google Maps), entretenimiento
(Netflix, Disney-Channel), trabajo (ChatGPT, Dall-E, Midjourney, Canva). La
lista es interminable y alcanza áreas que dan forma a nuestro mundo, desde el
turismo (Despegar, Trivago) hasta la guerra (sistemas de armas autónomos
letales), pasando por el comercio internacional y las finanzas. La IA está
cambiando nuestras sociedades.
No es la primera vez en la historia de la humanidad que una tecnología tiene efectos disruptivos en el orden social: la creación de la imprenta, de la máquina de vapor, el uso de energía nuclear o la llegada de las computadoras son ejemplos que no requieren de mayor explicación en una lista que podemos extender incluso a la piedra tallada en la prehistoria.
Cada nuevo cambio tecnológico ha mostrado ser más potente
que los anteriores puesto que se ha desarrollado subiéndose sobre sus hombros.
Ello ayuda a explicar por qué cada cambio ha generado temor social y reacciones
adversas: a comienzos del siglo XIX los luditas, un grupo formado mayormente
por artesanos ingleses, se organizaron para destruir la “nuevas” máquinas que
atentaban contra su trabajo.
La adaptación a las nuevas tecnologías, debido en parte a sus
impactos en las comunicaciones, se produjo históricamente durante plazos cada
vez más acelerados pero que, hasta hoy, requirieron de más de una generación.
Estos elementos ponen a la IA en un plano que de cambio
tecnológico mayor: tiene un potencial disruptivo mayor que el de cualquier tecnología
anterior, se produce con una velocidad sin precedentes, genera miedos y
rechazos.
Son precisamente esos los motivos por los cuales es
indispensable establecer un marco de gobernanza de la IA: su poder dual (no
tiene fines propios, por lo que puede utilizarse tanto “para el bien” como “para
el mal”), su extensión y penetración sociales, la promoción de la paz tanto a
nivel nacional como internacional.
Claro está, cada una de esas razones para establecer un
marco de gobernanza de la IA puede desagregarse en motivos de equidad, justicia
social, capacidades para el desarrollo sostenible, cierre o prevención de
brechas entre Estados ricos y pobres, paz y seguridad y varios etcéteras. Como
señalamos, los impactos de la IA ya se sienten en múltiples campos y el
potencial para el bien o para el mal que trae aparejado no tiene precedentes. Si
bien crea nuevos riesgos y oportunidades, el mayor cambio que trae la IA es potenciar
los ya existentes.
Pensar en un esquema de gobernanza de la IA hoy implica
pensar de manera contextual y holísitica, en un marco donde la incertidumbre
ocupa un papel destacado que mal haríamos en tratar de negar. Muy por el
contrario, la incertidumbre es parte de la realidad que potencia la IA.
Existen elementos que debemos tener en cuenta en nuestros
intentos por dar un marco legal para la IA. A continuación, expongo los 10 que
considero prioritarios:
1. Para establecer una gobernanza de la IA es necesario debatir
y acordar sobre sus fines. Toda regulación tiene como base una fuente axiológica
(busca “proteger” un valor considerado positivo y/o “enfrentar” un valor tenido
como negativo). Los valores que den sustento a la gobernanza de la IA no son
naturales ni están exentos de disputas. Por ello el concepto de “IA para el
bien” (AI for Good) me parece inútil ¿Qué es el “bien”? En cambio, si hablamos
de “IA para el Desarrollo Sostenible” (AI for Sustainable Development) tenemos
un acuerdo internacionalmente alcanzado sobre qué es lo que eso significa.
2. Gobernar la IA no es más, ni menos, que gobernar las
etapas de su ciclo de vida. Si bien una esquematización simple de los
ciclos de vida de las tecnologías puede resumirse en seis etapas (definición del
producto → desarrollo del producto → prueba de prototipos → adopción temprana
por usuarios → uso generalizado → obsolescencia), De
Silva y Alahakoon identifican un ciclo de vida para la IA de 19 etapas.
3. Un esquema de gobernanza de la IA debe necesariamente incluir
la regulación de la producción, almacenamiento, gestión, transmisión y uso de
datos. No considerar este capítulo equivale a regular el consumo de alimentos
sin atender a su producción.
4. El desarrollo de la IA no ocurre en un vacío normativo:
hay normas internacionales vinculantes en campos como los derechos de
propiedad, el comercio, el derecho humanitario, los derechos humanos y la Carta
de las Naciones Unidas que ya aplican de forma directa sobre la IA.
5. Tampoco nos encontramos ante un vacío institucional.
Ya tenemos experiencia internacional en la creación de marcos de gobernanza de
tecnologías disruptivas: hay lecciones por aprender y buenas prácticas que
llegan desde instituciones del sistema de las Naciones Unidas como la Unión
Internacional de las Telecomunicaciones (ITU), la Oficina de las Naciones
Unidas para el Espacio Exterior (UNOOSA), la Organización Internacional para la
Energía Nuclear (OIEA) y la Organización de Aviación Civil Internacional (OACI),
pero también desde otras instituciones como la Organización Internacional de
Estandarización (ISO), el Foro Global de Internet (IGF), la Cumbre de la Sociedad
de la Información (WSIS) e incluso desde espacios como la Corporación de
Internet para la Asignación de Nombres y Números (ICANN) y la Organización
Europea para la Investigación Nuclear (CERN).
6. No solo las instituciones que mencionamos en el punto
anterior pueden brindar lecciones, sino que otras organizaciones más “tradicionales”
pueden brindar indicaciones sobre cómo lidiar con las características propias
de la regulación de la IA. Por ejemplo, la Organización Internacional del Trabajo
(ILO) fue creada en 1919, pero su carácter tripartito es sumamente atractivo al
momento de pensar en un esquema de gobernanza que debe ser necesariamente multiactores
(ver el punto siguiente).
7. La gobernaza de la IA debe ser, necesariamente,
multiactores. Si bien los Estados son quienes portan el poder normativo, el
desarrollo de la IA tiene lugar especialmente en el sector privado, por lo cual
este debe ser parte del proceso. Sus prioridades y demandas deben ser contrabalanceados,
por lo que es fundamental incluir actores que aporten conocimiento experto
(academia, think thanks) y a quienes sentirán sus consecuencias finales
(sociedad civil). Por su naturaleza, es especialmente relevante incluir un
canal institucional que permita lleguen a los debates las necesidades de las
futuras generaciones y los niños y niñas.
8. Cualquier marco para la gobernanza de la IA que se
establezca requiere de trabajo a tres niveles: nacional, regional y global.
Por su naturaleza la IA no reconoce límites geográficos y su regulación
requiere, cuando menos, abordar temas transfronterizos y de interoperabilidad.
9. Establecer una gobernanza de la IA de carácter definitivo cuando esta se encuentra en pleno desarrollo es una utopía. Más bien, deberíamos basarnos en ejercicios de anticipación (con alto grado de incertidumbre) para crear un régimen capaz de ser adaptado de manera ágil a medida que se vayan produciendo nuevos desarrollos. Es bueno aquí recordar que Thomas Friedman nos decía en su libro Thank You for Being Late: An Optimist's Guide to Thriving (2016) que la velocidad de cambio de las nuevas tecnologías podría sobrepasar la capacidad de las sociedades y los hacedores de políticas para adaptarse a los cambios que ellas generan. Más específicamente señalaba que la tasa de renovación de las plataformas tecnológicas se movía en un plazo de entre cinco y siete años, mientras que la puesta en marcha de nuevas medidas regulatorias requería entre diez y quince. Como lo expresa el Dilema de Collingridge, cuando una tecnología está en pleno desarrollo, es entre difícil e imposible predecir qué impactos tendrá. En consecuencia, las regulaciones impuestas en esa etapa probablemente resultarán inadecuadas; pero cuando se conocen esos impactos suele ser demasiado tarde para regularlos.
10. La gobernanza de la IA debe incluir un capítulo fuerte sobre seguimiento y examen tanto del cumplimiento de su aplicación como de los avances en la propia IA, incluyendo un esquema rápido de solución de controversias basado en trabajo experto. Sin dejar de considerar sus (graves) falencias, el Examen Periódico Universal de Derechos Humando que realiza el Consejo de Derechos Humanos de las Naciones Unidas y de los paneles de solución de controversias de la OMC, ambos presentan vías interesantes que pueden adaptarse a la IA.
Aunque hoy parezca difícil de imaginar, la realidad nos
dice que necesitamos de un “momento San Francisco Digital”. Cuando lo que
parece imposible es indispensable, es bueno recordar a Arthur Clarke: “la única
manera de descubrir los límites de lo posible es aventurarse un poco más allá
de ellos, hacia lo imposible” (Profiles of the Future: An Inquiry into the
Limits of the Possible. Harper
& Row, 1962).