Lee en español aquí.

How can we exploit the benefits of artificial intelligence (AI) and ensure that the use of algorithms does not violate our rights or reinforce pre-existing inequities? Who will be able to govern AI and who will be responsible if things go wrong? These are the questions we are asking ourselves at CIPPEC’s Future of Politics Initiative. We address them in-depth in the article we co-authored with Julia Pomares (CIPPEC) and Andrés Ortega (Real Instituto Elcano) for the 2020 edition of Think 20, the G20 think tank chapter. I will summarise the most important aspects below.

Artificial intelligence (AI) has always generated a certain degree of fascination in people. Understood as a system of intelligent agents designed to receive information from the environment and act accordingly, AI arouses both enthusiasm and fear about its possible effects on our societies. On the one hand, there are estimates suggesting that the adoption of AI-associated technologies can contribute to the achievement of more than 100 targets of the Sustainable Development Goals (SDG). In turn, it could strengthen economic development, especially for those countries that were left behind in the last industrial revolution. On the other hand, its use raises concerns about the limits that exist to safeguard our personal data and protect us against malicious applications. There are also doubts about the legitimacy and transparency of decision-making processes, the role of the private sector, and accountability.

AI in everyday life

The truth is that, despite this duality, algorithms are present everywhere in our daily lives. AI is increasingly used to predict audiovisual content that may interest us, to write newspaper articles, and to answer queries through interactive chatbots. For the time being, the private sector leads its development. But governments are also using algorithms to support decision-making, assist in services or resources distribution, and streamline government procedures.

The pandemic accelerated public sector implementation of AI. Governments, such as in the UK, used AI in schools to assign grades to those who were unable to take their exams. Others gave it a crucial role in controlling COVID-19 circulation (and people’s mobility) using special applications.

Current state of AI governance

AI’s governance landscape is fragmented. Different sub-national states, countries, regions, and international bodies have strategies for its development. These vary in the approach undertaken, the degree of institutional development, and the linkage to the private sector. Most are based on ethical principles. According to a Health Ethics & Policy Lab survey, between 2016 and 2019, there were at least 84 high-level value-based public-private initiatives worldwide to guide the governance of AI.

But agreements based on ideas such as justice and security do not resolve the tensions rooted in these concepts. Nor do these approaches present a roadmap for translating principles into concrete action.

Fragmentation leads to inequitable outcomes: it makes coordination between jurisdictions difficult and creates new asymmetries. It also exacerbates other pre-existing inequalities between citizens, countries, and regions.

The future of AI

The future depends not only on technical progress but also on political decisions. The successful (and ethical) mainstreaming of AI requires the development of appropriate governance structures to mitigate its risks.

The first step is then to generate a common language to guide AI design and adoption. The G20 can play a key role in this. The group expressed in its 2019 Communiqué the need to contribute to the digital adaptation of our societies from a people-centred approach. As a discussion forum encompassing the world’s major economies and political powers, the G20 could bring together technical experts, academics, industry and AI ecosystem representatives. Together they can consider alternative frameworks, identify points of contention, and construct a terminology to facilitate dialogue.

Over time, the presence of shared definitions can help generate concrete indicators. In turn, it can contribute to the design of international standards with the capacity to change the context in which AI is researched, developed, and implemented. It is about going beyond general principles. In order to do so, measures must be taken to ensure transparency, assign responsibilities, and empower people. Such provisions, for instance, can define clear procedures related to the collection, use, storage and exchange of personal information in the context of AI’s development and implementation.

Furthermore, it is essential to clarify the degree and content of the obligations of all those involved in its development. This implies the possibility of legally binding software developers and suppliers alike to demonstrate due diligence. Namely, documenting every code written, indicating who, when, why, and with what kind of data the software was developed. It also means that appropriate tests are carried out before the program is released and its use is monitored.

Finally, ensuring that information on all AI implementation in the public policy cycle is publicly available is vital. It is essential to enable individuals to evaluate its use and operation in a transparent manner.

Sometimes, it seems that AI makes the world go round. But technology isn’t taking us anywhere on its own. AI’s duality can be solved through policy decisions. After all, humans are still the ones behind the wheel.

La Inteligencia Artificial hace girar al mundo, pero ¿quién podrá gobernarla?

por María Belén Abdala

¿Cómo podemos explotar los beneficios de la inteligencia artificial (IA) y asegurar que el uso de algoritmos no vulnere nuestros derechos o refuerce inequidades preexistentes? ¿Quién podrá gobernar a la IA y quién será responsable si las cosas salen mal? Estas son las preguntas que nos hacemos desde la Iniciativa del Futuro de la Política de CIPPEC. Las tratamos a fondo en el artículo que escribimos junto a Julia Pomares (CIPPEC) y Andrés Ortega (Real Instituto Elcano) para la edición 2020 del Think 20, el capítulo de think tanks del G20. Resumo acá los aspectos más importantes.

La inteligencia artificial (IA), ha generado siempre una cierta fascinación en las personas. Entendida como un sistema de agentes inteligentes, diseñados para recibir información del entorno y actuar en consecuencia, la IA despierta tanto entusiasmo como miedo sobre sus posibles efectos en nuestras sociedades. Por un lado, se estima que la adopción de tecnologías asociadas a la IA pueda contribuir a alcanzar más de 100 metas de los Objetivos de Desarrollo Sostenible (ODS). A su vez, podría fortalecer el desarrollo económico, especialmente para aquellos países que quedaron rezagados en la última revolución industrial. Por el otro, su uso plantea interrogantes sobre los límites que existen para resguardar nuestros datos personales y protegernos contra aplicaciones maliciosas. También existen dudas sobre la legitimidad y transparencia de los procesos de toma de decisión, el rol del sector privado, y la rendición de cuentas.

La IA en la vida diaria

Lo cierto es que, a pesar de esta dualidad, los algoritmos están presentes en nuestra vida cotidiana. La IA es utilizada cada vez más para predecir el contenido audiovisual que nos puede interesar, para escribir artículos en diarios y para responder consultas a través de chatbots interactivos. Por ahora el sector privado lidera su desarrollo. Pero también los gobiernos hacen uso de los algoritmos para apoyar la toma de decisiones, asistir en la distribución de servicios o recursos y agilizar procedimientos gubernamentales.

Con la pandemia, la implementación de IA desde el sector público se aceleró. Gobiernos como el del Reino Unido, utilizaron IA en escuelas para asignar notas a quienes no pudieron realizar sus exámenes. Otros le otorgaron un papel crucial para controlar la circulación del COVID-19 (y el movimiento de las personas) con el uso de aplicaciones especiales.

Situación actual de gobernanza de IA

El esquema de gobierno de la IA se encuentra fragmentado. Distintos estados subnacionales, países, regiones y organismos internacionales cuentan con estrategias para su desarrollo. Éstas varían en el enfoque, el grado de desarrollo institucional y la vinculación con el sector privado. La mayoría se basan en principios éticos. Según un relevamiento del Health Ethics & Policy Lab, entre 2016 y 2019, hubo en el mundo al menos 84 iniciativas público-privadas sobre valores de alto nivel destinados a guiar la gobernanza de la IA.

Pero los acuerdos basados ​​en ideas como justicia y seguridad no resuelven las tensiones que se encuentran arraigadas en estos conceptos. Estos enfoques tampoco presentan una hoja de ruta para traducir los principios en acciones concretas.

La fragmentación lleva a resultados poco equitativos: dificulta la coordinación entre jurisdicciones, y genera nuevas asimetrías. Además, exacerba otras inequidades preexistentes entre ciudadanos, países y regiones.

El futuro de la IA

El futuro depende no sólo de avances técnicos, sino de decisiones políticas. La incorporación exitosa (y ética) de la IA requiere del desarrollo de estructuras de gobernanza adecuadas para mitigar sus riesgos.

El primer paso entonces es generar un lenguaje común para guiar el diseño y adopción de IA. El G20 puede tener un rol central en este sentido. El grupo expresó en su Comunicado del 2019 la necesidad de contribuir a la adaptación digital de nuestras sociedades desde un enfoque centrado en las personas. Como un foro de debate que engloba a las principales economías y poderes políticos del mundo, el G20 podría convocar a técnicos, académicos, representantes de la industria y del ecosistema de la IA. Juntos pueden considerar marcos alternativos, identificar los puntos en disputa y construir una terminología que facilite el diálogo.

Con el tiempo, la presencia de definiciones compartidas puede contribuir a generar indicadores concretos. A su vez, puede ayudar a la creación de estándares internacionales con la capacidad de cambiar el contexto en el que se investiga, desarrolla e implementa la IA. Se trata de ir más allá de principios generales. Para ello, se requiere adoptar medidas que aseguren la transparencia, otorguen responsabilidades y empoderen a las personas. Estas disposiciones, por ejemplo, pueden definir procedimientos claros, relacionados con la recopilación, el uso, el almacenamiento y el intercambio de información personal en el contexto del desarrollo e implementación de la IA.

También es esencial aclarar el grado y contenido de las obligaciones de todos aquellos involucrados en su desarrollo. Esto implica la posibilidad de obligar legalmente a los desarrolladores y proveedores de software a demostrar debida diligencia. Es decir, que se documenten los códigos que escriben, indicando quién, cuándo, por qué y con qué datos se hizo el software. También que se realicen las pruebas adecuadas antes de que se publique el programa y monitorear su uso.

Por último, asegurar que la información de toda implementación de IA en el ciclo de políticas públicas esté disponible al público. Es fundamental que las personas puedan evaluar su uso y funcionamiento de forma transparente.

A veces puede parecernos que es la IA la que hace girar al mundo. Pero la tecnología sola no nos está llevando a ningún lado. La dualidad de la IA se resuelve con decisiones de política. Después de todo, siguen siendo los humanos los que están al volante.