JUMKO OGATA NOS HABLA DEL RACISMO EN EL MUNDO DIGITAL Y CÓMO ÉSTE AFECTA NUESTRA VIVENCIA DIARIA ENTRE APLICACIONES, REDES SOCIALES Y MOTORES DE BÚSQUEDA

En una era en la que se menosprecian las humanidades y las ciencias sociales, en la que se prefieren las ciencias “exactas”, se nos ha inculcado que la ciencia y la tecnología son disciplinas objetivas. Que “los números no mienten”, y por ende, cualquier resultado que arrojen estos algoritmos u operaciones son una expresión de la verdad.

No es raro escuchar en los medios de comunicación que estamos en la era del internet; una época fantástica en la que toda la información producida y documentada por los seres humanos se encuentra disponible para quienes podamos hacer un búsqueda en Google. De la misma manera, se ha vuelto común responderle a quienes no saben acerca de un tema u otro con un sencillo “Ay, ¡pues gugléalo!”; nos han enseñado que este motor de búsqueda es confiable, accesible, pero sobre todo: objetivo.

En realidad, ni la ciencia ni la tecnología son disciplinas objetivas, pues sus resultados están dirigidos por los intereses de quienes las desarrollan. Es decir, quien paga manda, y en un sistema económico capitalista construido con base en múltiples sistemas de opresión, la tecnología refleja los prejuicios e ideas violentas derivadas de dichos sistemas.

Además, considerando la velocidad con la cuál ocurren avances e innovaciones tecnológicas, es difícil seguir el paso de este tipo de violencias, documentarlas y analizarlas; ya para cuando se ha escrito al respecto el tema del que hablan se ha vuelto obsoleto.

***

Por ejemplo, en 2020 ocurrió el caso de Twitter, donde se hizo evidente que cuando se ponía en una foto la cara de una persona negra y la de una blanca con la distancia suficiente como para que sólo se pudiera mostrar a una de ellas, el algoritmo invariablemente mostraba a la persona blanca.

Se movían de lugar las caras, se jugaba con su tamaño, el color de la corbata, el número de personas en la foto, pero el algoritmo impasible priorizaba las caras de personas blancas.

Una vez que se hizo viral el tema, la compañía condujo investigaciones internas al respecto y los resultados mostraron que en efecto existía una preferencia del algoritmo por mostrar a personas blancas por encima de personas negras. Finalmente ofrecieron una declaración en la que afirmaron que; “Nuestras conclusiones son que no todo en Twitter es un buen candidato para un algoritmo. Y en este caso, cómo cortar una imagen es una decisión hecha mejor por personas”.

***

Aunque este es un caso muy específico, no es la única compañía que tiene problemas graves con algoritmos racistas; también hay casos ampliamente documentados sobre Google, Facebook y Youtube, que muestran discriminación racista hacia creadores, usuarios y los resultados que arrojan determinadas búsquedas en sus páginas.

Desafortunadamente este problema es mucho más grave que la visibilidad de una persona u otra en redes sociales; la investigadora afroestadounidense Ruha Benjamin incluso propone la idea de “El nuevo código Jim” (The New Jim Code); haciendo alusión a las leyes segregacionistas Jim Crow en Estados Unidos durante el siglo XX que impedían el acceso de personas negras a la mayoría de los espacios y servicios de calidad; siendo reservados únicamente para personas blancas.

Ella define el código Jim Code como: “el empleo de nuevas tecnologías que reflejan y reproducen desigualdades existentes; pero que son promovidas y percibidas como más objetivas o progresistas que los sistemas discriminatorios de una era previa”.

Ella alude directamente a la forma en la que hemos naturalizado la supuesta objetividad de los motores de búsqueda y algoritmos; esto en lugar de considerar si un sistema es creado en su mayoría por personas que se benefician de los sistemas de opresión; naturalmente lo que produzcan reflejará estas ideas y prejuicios.

***

La idea del nuevo código Jim refleja una preocupación por los espacios en los que se utilizan algoritmos para tomas de decisiones sobre las vidas de personas racializadas. Y si ya es suficientemente difícil cuestionar y retar las decisiones que ya son tomadas a nivel sistémico, será mucho más difícil llevarlo a cabo si ahora debemos reclamarle a un sistema operativo.

Desde sistemas de identificación facial para acusar a personas de crímenes, hasta algoritmos que aprueban hipotecas, nos enfrentamos al hecho de que es cada vez más frecuente el uso de inteligencia artificial para la toma de decisiones importantes en nuestras vidas. Y por ende, es fundamental cuestionar quiénes controlan a dichos sistemas y cuáles son sus intereses. Asimismo, como señala Ruha Benjamin, el racismo no sólo es un sistema de opresión, sino un modelo productivo.

No sólo son categorías impuestas sobre las personas, sino que cada categoría carga una serie de expectativas y prejuicios. Sin importar el comportamiento del individuo en cuestión, su acceso a diversos espacios y oportunidades estará condicionado por lo que se espera de las personas “como él”, y sufrirá violencia estructural en consecuencia.

¿Qué podemos hacer para luchar contra el racismo que se manifiesta en el mundo digital?

En este sentido, las ciencias sociales y las humanidades son fundamentales, tanto para restringir la desinformación que abunda en internet; sobre todo para fomentar el desarrollo del pensamiento crítico y la crítica de fuentes. Debemos recordar que las herramientas de búsqueda no son herramientas objetivas; tener esto en cuenta cuando investiguemos sobre un tema de nuestro interés, y que, como propone Safiya Umoja Noble; no podemos dejar de lado la importante labor de categorización y consulta de información creada desde el ámbito público; en las ciencias de la información y la biblioteconomía.

Estas son la clave para hacer frente a los peligros que supone la privatización de la búsqueda de información y las formas en las que limita su acceso para el público general.

Asimismo, es necesario exigir transparencia no sólo en cuanto al desarrollo de algoritmos, sino también respecto a su uso y quiénes son los beneficiarios de dichos sistemas de toma de decisión, pues son una forma más en la que continúa la vigilancia hacia los usuarios. Esto aunado al hecho que existe una tendencia hacia el monopolio en estos contextos, liderados por Google y Facebook.

Dicha tendencia hace aún más preocupante la conversación; estas dos compañías controlan casi en su totalidad la información a la que tenemos acceso y la forma en la que es presentada para nuestro consumo. Debemos incorporar estos hechos a la discusión — ¿Cómo les beneficia a estas compañías incorporar y mantener algoritmos racistas? ¿De qué manera sostienen sus intereses?


  • TEXTO: Jumko Ogata

Fecha de Publicación:
Martes 17/08 2021