Un enfoque feminista de los principios éticos en la Inteligencia Artificial

Por Paz Peña O.
English version

Esta presentación fue hecha en el evento anual de Women in AI Ethics (WAIE). El nombre original de la presentación era “Artificial Intelligence in Latin America: A Feminist Approach to Ethical Principles”

Audre Lorde

Tengo unos minutos para intervenir. Mi escasa capacidad para improvisar en español, que se acentúa en inglés, me llevó a escribir mi intervención sobre los aspectos que quiero discutir aquí, en esta breve presentación, sin perder mucho tiempo.

Como investigadora independiente, estoy asociada con Coding Rights, una ONG brasileña que trabaja en la intersección entre tecnología y feminismo, para realizar una investigación conjunta sobre las perspectivas feministas críticas de América Latina sobre Inteligencia Artificial (IA).

Entre sus objetivos, estamos trabajando en mapear el uso de herramientas algorítmicas en la toma de decisiones por parte de los Estados de América Latina para determinar la distribución de bienes y servicios, incluyendo educación, servicios de salud pública, vigilancia policial y vivienda, entre otros.

Hay al menos tres características comunes en estos sistemas utilizados en América Latina que son especialmente problemáticas dado su potencial para aumentar la injusticia social en la región.

Examinar estas características también nos permite pensar críticamente sobre las perspectivas hegemónicas sobre ética que hoy dominan la conversación sobre Inteligencia Artificial.

Una característica es la identidad impuesta a las personas y poblaciones pobres. La mayoría de estos sistemas están diseñados para controlarlas. Cathy O'Neil (2016, Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy) lo dijo antes al analizar los usos de la IA en Estados Unidos, ya que estos sistemas “tienden a castigar a los pobres”. Ella explica (traducción mía):

Esto se debe, en parte, a que están diseñados para evaluar a un gran número de personas. Se especializan en productos a granel y son baratos. Eso es parte de su atractivo. Los ricos, por el contrario, a menudo se benefician de los aportes personales. [...] Los privilegiados, veremos una y otra vez, son procesados más por personas, las masas, por máquinas.

En esta cuantificación del yo, de los cuerpos (entendidos como socialmente construidos) y de las comunidades, no hay lugar para re-negociación. En otras palabras, la datificación reemplaza la “identidad social” por la “identidad del sistema” (Arora, P., 2016, The Bottom of the Data Pyramid: Big Data and the Global South).

La segunda característica de estos sistemas que refuerza la injusticia social es la falta de transparencia y rendición de cuentas.

Ninguno de ellos se ha desarrollado mediante un proceso participativo de ningún tipo, ya sea con especialistas o, lo que es más importante, con las comunidades afectadas. En cambio, los sistemas de Inteligencia Artificial parecen reforzar las políticas públicas de arriba hacia abajo, donde las personas se convierten para los gobiernos en “beneficiarios” o “consumidores”.

Finalmente, estos sistemas se diseñan y aplican en lo que llamaríamos “consorcios neoliberales”, donde los gobiernos desarrollan o compran sistemas de IA al sector privado o a las universidades. Esto merece una mayor investigación, ya que los valores neoliberales como la lógica extractivista de producción parecen impregnar la forma en que se diseñan los sistemas de IA en esta parte del mundo, no solo por las empresas sino también por las universidades financiadas con fondos públicos dedicados a la “innovación” y la mejora del comercio.

Estas tres características de los sistemas de IA profundizan los problemas estructurales de injusticia e inequidad en nuestras sociedades. La pregunta es ¿por qué, desde hace algunos años, creemos que el conjunto de principios éticos “solucionará” los problemas estructurales de nuestra sociedad que se reflejan en la IA?

Desde una perspectiva feminista y decolonial, basada en la experiencia latinoamericana, nos interesan al menos tres aspectos del debate ético en Inteligencia Artificial:

  1. En un contexto neoliberal de desarrollo tecnológico, es preocupante que se promuevan principios éticos como forma de autorregulación, desplazando los marcos de derechos humanos que son principios éticos aceptados por muchos países del mundo y que son exigibles por ley. En un mundo donde la aplicación y el respeto de los derechos humanos son cada vez más difíciles, esto es simplemente inaceptable.

  2. La discusión de los principios éticos, que es básicamente una práctica situada en un contexto cultural, está dominada por el Norte Global. Siempre cuento esta anécdota: en 2018, en una famosa conferencia internacional, uno de los panelistas -un hombre blanco- dijo que los principios éticos en IA podrían basarse en documentos universalmente reconocidos como la Constitución de los Estados Unidos de América (!). Hay que revisar los 74 conjuntos de principios éticos que se publicaron entre 2016-2019 para ver, entonces, qué voces dominan y, más importante aún, qué voces son silenciadas.

  3. Gran parte de la discusión sobre principios éticos da por sentado que todo uso de la Inteligencia Artificial es bueno y deseable. La exacerbación de la injusticia social que pueden causar es solo un error que podría resolverse mediante el uso correcto de un conjunto de principios éticos diseñados en el Norte Global.

Los principios éticos son fundamentales para cualquier práctica humana con nuestro entorno. Pero un principio ético que termina replicando relaciones opresivas es simplemente un blanqueo de prácticas sociales tóxicas.

El marco del feminismo crítico sirve en gran medida para comprender esto. Como dijo Audre Lorde en una conferencia en 1979, “las herramientas del maestro nunca desmantelarán la casa del maestro”.

Entonces, ¿cómo continuamos?

The world

Debemos trabajar por una ética feminista y emancipadora de la tecnología. En otras palabras, sugiero al menos basar nuestras acciones en tres pilares:

  1. Rechazar la ilusión, instalada principalmente en Silicon Valley desde la década de 1990, de que la innovación tecnológica es siempre una mejora independiente de sus consecuencias sociales. En otras palabras, debemos desmantelar esa idea patriarcal y hegemónica de “A menos que estés rompiendo cosas, no te estás moviendo lo suficientemente rápido”, como Mark Zuckerberg proclama mientras el mundo se está cayendo a pedazos.

  2. Debemos entender que, en muchos casos, la Inteligencia Artificial eficienta un estado peligroso del capitalismo en el que -en palabras de Isabelle Stengers-, existe una expropiación sistemática de lo que nos hace capaces de pensar juntos los problemas que nos preocupan. En otras palabras, debemos negarnos a aceptar el exterminio de espacios de deliberación social por la automatización de decisiones. Reclamemos nuestro derecho a pensar juntos en el mundo. Reclamemos nuestro derecho a ser seres políticos.

  3. Quizás lo más urgente sea deconstruir la ideología que asume que la Inteligencia Artificial puede resolver cualquier problema social complejo y, como consecuencia imperativa, cuestionar que el destino de una persona pueda definirse exclusivamente mediante decisiones binarias automatizadas basadas en un conjunto de datos personales de su pasado.

Eso va en contra de la esencia misma de la dignidad humana y, sobre todo, en contra de cualquier idea de justicia social cuando, todas sabemos aquí, que los sistemas sociales actuales terminarán clasificando y definiendo el destino solo de los menos privilegiados.

Mujeres del mundo: no solo necesitamos arreglar las fallas de un software, debemos desafiar las estructuras desiguales de nuestras sociedades para solo entonces tener una Inteligencia Artificial justa.

¡Gracias!