¿Cómo violenta la IA a las mujeres y por qué sí tiene género? Esto explica la UNAM

  • Especialistas de la UNAM indican que la inteligencia artificial tiene varios sesgos que contribuyen a violentar a las mujeres.

 

La inteligencia artificial (IA) ha venido a revolucionar el mundo. Sus desarrolladores dicen que no tiene género, pero académicas de la Universidad Nacional Autónoma de México (UNAM) afirman lo contrario y que, de hecho, es machista.

 

La explicación: La IA es programada por hombres. Además, la herramienta no puede hacer nada para ‘salvarse’: esa es la información que hay, esa es la información de la cual dispone, y no tiene capacidad para modificarla, para darle un carácter feminista, para al menos dotarla de un principio de igualdad de derechos de la mujer.

 

Saiph Savage, ingeniera en computación por la UNAM y con un doctorado en Ciencias de la Computación por la Universidad de California, Santa Bárbara, recuerda que “la inteligencia artificial busca crear computadoras que puedan empezar a pensar como los seres humanos”.

 

¿Cómo funciona la inteligencia artificial?

La IA generativa produce nuevo contenido desde la experiencia y el aprendizaje de machine learning con la que se educan los sistemas a partir de la información. “Esto es lo que hace ChatGPT: tú le das millones de datos con los cuales empieza a aprender ciertos conceptos”, describe la ingeniera de la UNAM.

 

Es una pregunta que plantea la lingüista computacional María Ximena Gutiérrez, parte del programa Macrodatos, Inteligencia Artificial e Internet del Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades (CEIICH), el cual busca reflexionar desde las humanidades y la interdisciplina los avances de la IA.

 

Gutiérrez responde: “Lo que está reflejado ahí de nosotros, tal vez tiene muchos sesgos, reproduce estereotipos, incluidas cuestiones de género que se consideran machistas. El enfoque predominante de la IA se basa en aprender de una gran cantidad de ejemplos. El sistema aprenderá de datos de origen que pueden estar sesgados”.

 

Así aprendió la inteligencia artificial a ser machista y patriarcal

Saiph Savage explica que la IA “está entrenada para reproducir, pero también puede amplificar”, esto pensado en términos de machismo y violencia de género contra las mujeres.

 

Ximena Gutiérrez también explica algo importante del proceso: “Estas tecnologías son muy eficientes, pero eso conlleva un costo oculto, el cual se traduce en que a veces esos sistemas de redes neuronales artificiales tan complejos no son transparentes, no te pueden explicar por qué tomaron una decisión, y eso tiene un impacto social”.

 

¿En cuáles situaciones la IA ha sido machista?

Si la IA tuviera que decidir a quién contratar, probablemente elegiría a un candidato varón. Le sucedió a una empresa multinacional especializada en comercio electrónico, streaming digital e inteligencia artificial.

 

Entre 2014 y 2015 descubrieron que sus motores de contratación discriminaban a las mujeres. ¿La razón? Su herramienta de selección, hasta ese momento experimental, trabajaba con un algoritmo que aprendió a valorar los patrones de las hojas curriculares en un tiempo de 10 años, y como el dominio masculino ha predominado en las industrias tecnológicas, una candidata sería discriminada sólo por ser mujer. Esto lo hacía no ser neutral en cuestiones de género.

 

También se puede hablar de agresiones. “Estamos viendo casos terribles de violencia digital contra las mujeres que complejizan aún más el problema para ellas”, argumenta Aimée Vega, especialista en feminismo y comunicación del CEIICH.

 

Y se refiere a la generación de imágenes, un video, una fotografía o un audio generado que imita la apariencia y el sonido de una persona, donde las mujeres son representadas como objetos sexuales.

 

La IA que no es feminista puede también contribuir a la feminización de la pobreza y la precarización de las mujeres en el mercado laboral, esto pensado en la IA que sustituye a una mujer en el trabajo, en la automatización inteligente de las industrias tradicionales o los sueldos menores que reciben las mujeres por el simple hecho de serlo.

 

Otro caso de violencia contra las mujeres desde la IA puede ser la vigilancia ciudadana que existe en redes sociales.

 

Por ejemplo, en las Apps que registran información de los ciclos menstruales, donde ésta se utiliza para “identificar quiénes están en edad fértil y tomar acciones incluso legales contra aquellas que no quieren ser madres o las que abortan”, cuenta Aimée Vega.

 

¿Qué otros sesgos tiene la inteligencia artificial?

No sólo la información de la que se ha alimentado la IA podría estar sesgada; el sesgo puede venir también de los grupos de trabajo que hacen la tecnología.

 

“Por ejemplo, las principales compañías que hacen IA hoy en día: Meta AI, Google, Open AI, todas estas, en realidad tienen una representación muy del norte global, casi no hay inclusión de instituciones del sur global, ahí ya hay un sesgo y eso ya va más allá de los algoritmos o la programación”, comenta Ximena Gutiérrez.

 

Los sesgos son múltiples y se van acumulando: la geografía hegemónica, el predominio masculino en el campo de la tecnología y la ingeniería. Se suma que hay ausencia de participación de miembros de comunidades diversas o en estado de vulnerabilidad en el diseño de IA.

 

Aimée Vega reitera que la tecnología no es neutral, es un dispositivo de poder y opera en un marco de relaciones donde se sostiene la desigualdad entre mujeres y hombres, la violación a los derechos humanos de ellas, así como la violencia y la discriminación en su contra.

 

Fuente : elfinanciero con información de gaceta unam.

Compartir
Author

kb4vlpcwk7gw@p3plzcpnl489463.prod.phx3.secureserver.net

No Comments

Leave A Comment