UNA CRÍTICA AL DESARROLLO DE INTELIGENCIA ARTIFICIAL BAJO EL SESGO DEL SUPREMACISMO BLANCO.

Así como se comentó en una edición anterior, la tecnología y la inteligencia artificial no son una herramienta “objetiva”; sino que está construida con base en los prejuicios que tienen las personas que programan los algoritmos y programas. Además, cabe destacar que no todxs tienen el mismo acceso a la programación y mucho menos a puestos importantes en compañías como Google o Meta.

Si bien, anteriormente hemos discutido la forma en la que los algoritmos en redes sociales han perpetuado estereotipos machistas, racistas, homofóbicos y capacitistas; en esta ocasión hablaremos acerca de los discursos actuales respecto al desarrollo y uso de la inteligencia artificial. Desarrollos permeados también por violencia estructural y constituyendo una amenaza para la creatividad de los seres humanos.

En los últimos meses se ha hecho viral el filtro “Magic Avatars” de la app Lensa, que ofrece una función en la que la persona usuaria sube fotografías suyas para que un programa de inteligencia artificial genere retratos fantásticos basados en las imágenes de referencia.

Dependiendo de la cantidad que pague la persona, puede obtener desde cincuenta hasta doscientas imágenes a partir de diez a veinte selfies. A pesar de lo popular que se volvió el uso de esta app, es importante criticar la forma a partir de la cual se crean estas imágenes. Además de la forma en la que retrata a las personas (dependiendo de cómo percibe su género y racialización el programa). 

Inteligencia artificial: ¿una amenaza para creativxs?

Los propios dueños de estos sistemas pretenden dar a entender a través de un lenguaje vago que la inteligencia artificial crea estas imágenes de la nada. Y que tiene la misma capacidad creativa que una persona. En realidad, y de acuerdo con un artículo de Heather Wake para Upworthy, Lensa (y muchos otros programas de inteligencia artificial) crea estas imágenes utilizando un modelo conocido como “Stable Diffusion”, o difusión estable; que es un programa de código abierto y este les dará imágenes basadas en dichas palabras.

A su vez, el modelo de difusión estable está construido con una base de datos de una organización sin fines de lucro conocida como LAION-5B; que construyó una base de datos que cuenta con más de cinco mil millones de imágenes tomadas de internet.

Luego entonces, uno de los problemas fundamentales de programas como los que utiliza Lensa, es el hecho que plagia el arte de cualquier persona cuya obra esté disponible en internet. Combina su estilo con el de otrxs e incluso mostrando la firma, algo difuminada, de la persona de la que copió. Así, Lensa ha obtenido 29 millones de dólares a partir del consumo de los “Magic Avatars”; mientras que lxs artistas de los que el programa copió no obtienen ninguna remuneración por el uso de su obra. 

Estereotipos en la AI

Por si fuera poco, los prejuicios y estereotipos repercuten en este mismo programa, mostrando ciertas tendencias al representar a mujeres, personas racializadas y personas con discapacidades– en particular si la persona usuaria existe dentro de varias de estas categorías. En un artículo para el MIT Technology Review, Melissa Heikkilä compartió su experiencia utilizando Lensa.

Mientras que a sus compañeros hombres les mostraba imágenes fantásticas, en escenarios de aventura y exploración; de cien imágenes que ella obtuvo, en dieciséis estaba topless y en otras catorce estaba semidesnuda y en poses que eran sexualmente sugerentes. La autora explica que una compañera china también tuvo una experiencia similar, pero que a sus colegas blancas les salieron muchas menos imágenes con connotación sexual.

Esto no es aleatorio tomando en cuenta que los motores de búsqueda cuentan con los mismos prejuicios y estereotipos que la mayoría de los hombres blancos, cis, heterosexuales y sin discapacidades. Mismos que tienen el poder de toma de decisión en la creación de dichos sistemas, los programas de inteligencia artificial aprenden de todo el contenido sesgado que está a su disposición.

Si un dato se repite, como la representación de una mujer de forma sexualizada, entonces el programa asocia esta información y la repite con mayor frecuencia. Asimismo, los sistemas de opresión no existen de manera separada, sino que se construyen de manera mutua. Por ende, no es igual la violencia que viven las mujeres blancas que las mujeres racializadas; es por ello, que una mujer asiática vio representaciones suyas que no sólo eran misóginas sino también racistas, no se pueden pensar de manera aislada.

Supremacismo blanco en el uso y desarrollo de la tecnología

En el caso de Melissa Heikkilä, fue mostrada de una forma fetichizada de origen racista; el orientalismo es una forma particular de exotización de las mujeres asiáticas. Por ende, las construye como seres hipersexualizados, sumisas y que deben ser “rescatadas” de sus respectivas culturas de origen, preferiblemente por un hombre blanco.

A pesar del hecho que existen filtros de aprendizaje para evitar que los programas de inteligencia artificial aprendan a pensar de forma racista o misógina; estos deben ser curados por seres humanos y deben tomarse acciones deliberadas para evitar representaciones violentas. Un hecho que no parece estar en las prioridades de las compañías que ofrecen el uso de estos programas. 

Lo que nos muestra tanto el robo de arte de manera deliberada por parte de quienes crean los programas de inteligencia artificial; como el hecho que no se preocupen por la forma en la que se muestran a personas afectadas por múltiples sistemas de opresión; es que el uso y desarrollo de la tecnología en la actualidad están construidas con base en el supremacismo blanco.

En lugar de presentar posibilidades de creatividad o sencillamente divertir a la persona que quiera tener una imágen para sus redes sociales; estos programas discriminan y violentan a unas personas y a otras no.

Se construye con base en el despojo (en este caso de la creatividad de seres humanos); que es una característica fundamental de supremacismo blanco desde hace quinientos años. Y le recuerda a las personas el lugar que ocupan dentro de estas jerarquías; el valor que el sistema le adjudica a cada cuerpo.

En este sentido, es fundamental ser críticxs ante la imposición de tecnología aparentemente inocente, que busca normalizar el despojo y la explotación de un grupo de personas para el beneficio de una compañía. ¿Cómo nos podrían servir estos programas si nos esforzamos activamente por construirlos sin los sesgos opresores que han aprendido?


  • FOTOS: Tara Winstead vía Pexels

  • TEXTO: Jumko Ogata

Fecha de Publicación:
Jueves 11/01 2023