Gobernanza de la IA: 10 piezas para un rompecabezas

Por Javier Surasky-

 

La IA ya forma parte de la vida de la mayor parte de las personas que habitamos este planeta. Se ha integrado en nuestros buscadores de Internet (Google), esquemas de transporte (Uber, Waze, Google Maps), entretenimiento (Netflix, Disney-Channel), trabajo (ChatGPT, Dall-E, Midjourney, Canva). La lista es interminable y alcanza áreas que dan forma a nuestro mundo, desde el turismo (Despegar, Trivago) hasta la guerra (sistemas de armas autónomos letales), pasando por el comercio internacional y las finanzas. La IA está cambiando nuestras sociedades.

No es la primera vez en la historia de la humanidad que una tecnología tiene efectos disruptivos en el orden social: la creación de la imprenta, de la máquina de vapor, el uso de energía nuclear o la llegada de las computadoras son ejemplos que no requieren de mayor explicación en una lista que podemos extender incluso a la piedra tallada en la prehistoria.

Cada nuevo cambio tecnológico ha mostrado ser más potente que los anteriores puesto que se ha desarrollado subiéndose sobre sus hombros. Ello ayuda a explicar por qué cada cambio ha generado temor social y reacciones adversas: a comienzos del siglo XIX los luditas, un grupo formado mayormente por artesanos ingleses, se organizaron para destruir la “nuevas” máquinas que atentaban contra su trabajo.

La adaptación a las nuevas tecnologías, debido en parte a sus impactos en las comunicaciones, se produjo históricamente durante plazos cada vez más acelerados pero que, hasta hoy, requirieron de más de una generación.

Estos elementos ponen a la IA en un plano que de cambio tecnológico mayor: tiene un potencial disruptivo mayor que el de cualquier tecnología anterior, se produce con una velocidad sin precedentes, genera miedos y rechazos.

Son precisamente esos los motivos por los cuales es indispensable establecer un marco de gobernanza de la IA: su poder dual (no tiene fines propios, por lo que puede utilizarse tanto “para el bien” como “para el mal”), su extensión y penetración sociales, la promoción de la paz tanto a nivel nacional como internacional.

Claro está, cada una de esas razones para establecer un marco de gobernanza de la IA puede desagregarse en motivos de equidad, justicia social, capacidades para el desarrollo sostenible, cierre o prevención de brechas entre Estados ricos y pobres, paz y seguridad y varios etcéteras. Como señalamos, los impactos de la IA ya se sienten en múltiples campos y el potencial para el bien o para el mal que trae aparejado no tiene precedentes. Si bien crea nuevos riesgos y oportunidades, el mayor cambio que trae la IA es potenciar los ya existentes.

Pensar en un esquema de gobernanza de la IA hoy implica pensar de manera contextual y holísitica, en un marco donde la incertidumbre ocupa un papel destacado que mal haríamos en tratar de negar. Muy por el contrario, la incertidumbre es parte de la realidad que potencia la IA.

Existen elementos que debemos tener en cuenta en nuestros intentos por dar un marco legal para la IA. A continuación, expongo los 10 que considero prioritarios:

1. Para establecer una gobernanza de la IA es necesario debatir y acordar sobre sus fines. Toda regulación tiene como base una fuente axiológica (busca “proteger” un valor considerado positivo y/o “enfrentar” un valor tenido como negativo). Los valores que den sustento a la gobernanza de la IA no son naturales ni están exentos de disputas. Por ello el concepto de “IA para el bien” (AI for Good) me parece inútil ¿Qué es el “bien”? En cambio, si hablamos de “IA para el Desarrollo Sostenible” (AI for Sustainable Development) tenemos un acuerdo internacionalmente alcanzado sobre qué es lo que eso significa.

2. Gobernar la IA no es más, ni menos, que gobernar las etapas de su ciclo de vida. Si bien una esquematización simple de los ciclos de vida de las tecnologías puede resumirse en seis etapas (definición del producto → desarrollo del producto → prueba de prototipos → adopción temprana por usuarios → uso generalizado → obsolescencia), De Silva y Alahakoon identifican un ciclo de vida para la IA de 19 etapas.

3. Un esquema de gobernanza de la IA debe necesariamente incluir la regulación de la producción, almacenamiento, gestión, transmisión y uso de datos. No considerar este capítulo equivale a regular el consumo de alimentos sin atender a su producción.

4. El desarrollo de la IA no ocurre en un vacío normativo: hay normas internacionales vinculantes en campos como los derechos de propiedad, el comercio, el derecho humanitario, los derechos humanos y la Carta de las Naciones Unidas que ya aplican de forma directa sobre la IA.

5. Tampoco nos encontramos ante un vacío institucional. Ya tenemos experiencia internacional en la creación de marcos de gobernanza de tecnologías disruptivas: hay lecciones por aprender y buenas prácticas que llegan desde instituciones del sistema de las Naciones Unidas como la Unión Internacional de las Telecomunicaciones (ITU), la Oficina de las Naciones Unidas para el Espacio Exterior (UNOOSA), la Organización Internacional para la Energía Nuclear (OIEA) y la Organización de Aviación Civil Internacional (OACI), pero también desde otras instituciones como la Organización Internacional de Estandarización (ISO), el Foro Global de Internet (IGF), la Cumbre de la Sociedad de la Información (WSIS) e incluso desde espacios como la Corporación de Internet para la Asignación de Nombres y Números (ICANN) y la Organización Europea para la Investigación Nuclear (CERN).

6. No solo las instituciones que mencionamos en el punto anterior pueden brindar lecciones, sino que otras organizaciones más “tradicionales” pueden brindar indicaciones sobre cómo lidiar con las características propias de la regulación de la IA. Por ejemplo, la Organización Internacional del Trabajo (ILO) fue creada en 1919, pero su carácter tripartito es sumamente atractivo al momento de pensar en un esquema de gobernanza que debe ser necesariamente multiactores (ver el punto siguiente).

7. La gobernaza de la IA debe ser, necesariamente, multiactores. Si bien los Estados son quienes portan el poder normativo, el desarrollo de la IA tiene lugar especialmente en el sector privado, por lo cual este debe ser parte del proceso. Sus prioridades y demandas deben ser contrabalanceados, por lo que es fundamental incluir actores que aporten conocimiento experto (academia, think thanks) y a quienes sentirán sus consecuencias finales (sociedad civil). Por su naturaleza, es especialmente relevante incluir un canal institucional que permita lleguen a los debates las necesidades de las futuras generaciones y los niños y niñas.

8. Cualquier marco para la gobernanza de la IA que se establezca requiere de trabajo a tres niveles: nacional, regional y global. Por su naturaleza la IA no reconoce límites geográficos y su regulación requiere, cuando menos, abordar temas transfronterizos y de interoperabilidad.

9. Establecer una gobernanza de la IA de carácter definitivo cuando esta se encuentra en pleno desarrollo es una utopía. Más bien, deberíamos basarnos en ejercicios de anticipación (con alto grado de incertidumbre) para crear un régimen capaz de ser adaptado de manera ágil a medida que se vayan produciendo nuevos desarrollos. Es bueno aquí recordar que Thomas Friedman nos decía en su libro Thank You for Being Late: An Optimist's Guide to Thriving (2016) que la velocidad de cambio de las nuevas tecnologías podría sobrepasar la capacidad de las sociedades y los hacedores de políticas para adaptarse a los cambios que ellas generan. Más específicamente señalaba que la tasa de renovación de las plataformas tecnológicas se movía en un plazo de entre cinco y siete años, mientras que la puesta en marcha de nuevas medidas regulatorias requería entre diez y quince. Como lo expresa el Dilema de Collingridge, cuando una tecnología está en pleno desarrollo, es entre difícil e imposible predecir qué impactos tendrá. En consecuencia, las regulaciones impuestas en esa etapa probablemente resultarán inadecuadas; pero cuando se conocen esos impactos suele ser demasiado tarde para regularlos.

10. La gobernanza de la IA debe incluir un capítulo fuerte sobre seguimiento y examen tanto del cumplimiento de su aplicación como de los avances en la propia IA, incluyendo un esquema rápido de solución de controversias basado en trabajo experto. Sin dejar de considerar sus (graves) falencias, el Examen Periódico Universal de Derechos Humando que realiza el Consejo de Derechos Humanos de las Naciones Unidas y de los paneles de solución de controversias de la OMC, ambos presentan vías interesantes que pueden adaptarse a la IA. 

Aunque hoy parezca difícil de imaginar, la realidad nos dice que necesitamos de un “momento San Francisco Digital”. Cuando lo que parece imposible es indispensable, es bueno recordar a Arthur Clarke: “la única manera de descubrir los límites de lo posible es aventurarse un poco más allá de ellos, hacia lo imposible” (Profiles of the Future: An Inquiry into the Limits of the Possible. Harper & Row, 1962).