![](https://www.revistare.com/wp-content/uploads/2024/12/Imagen-editorial-1024x682.jpg)
Diversas investigaciones[1] sobre las respuestas de ChatGPT y otras herramientas de inteligencia artificial generativa, muestran que éstas contienen con frecuencia sesgos en detrimento de las mujeres. Estos sesgos se muestran en distintas formas.
Por una parte, suelen resaltar en los varones las capacidades para el liderazgo y el pensamiento estratégico; les asignan con más frecuencia valores como “ejecutividad”, “decisión”, etc. Si se habla de “expertos”, se da por hecho que son varones. A las mujeres les subrayan su capacidad para el trabajo en equipo, la atención personalizada, el cuido y valores como “belleza” o “armonía”.
Otras maneras en que la inteligencia artificial expresa esos sesgos son las maneras como las voces auxiliares (Alexa, Siri, Cortana…) responden cuando se les expresan comentarios machistas o excluyentes de lo femenino: no los detectan.
En el caso de las redes sociales, los algoritmos en casi todas ellas favorecen la visibilización de expresiones denigrantes y violentas porque suelen ser las que atraen más público. Muchas de ellas —no todas, por supuesto— se refieren a las mujeres.
¿Por qué sucede esto? Hay al menos dos motivos que lo explican.
- Por una parte, el contenido que nos devuelve todo lo que llamamos inteligencia artificial generativa —como Chat GPT, Copilot y otras muchas (capaces de ofrecer respuestas “razonadas” y bien estructuradas)—, abrevan de lo que los seres humanos comparten en Internet. Son reflejo de la cultura que las ha creado. No expresa nada nuevo ni filtra éticamente —porque no tiene criterio— lo que hay en sus fuentes. Eso sí, lo organiza bien y puede dar la impresión de estar creando de la nada, cuando lo que hace reproduce sesgos presentes en la sociedad, no sólo de género, sino también de edad, de raza, de nivel económico…
- Por otra, también son personas los creadores de los algoritmos con que se prioriza la aparición de unos u otros contenidos, tanto en la generativa como en otras formas de inteligencia artificial. Por lo tanto, pueden volcar en ellos —a veces conscientemente— los sesgos que provienen de sus intereses económicos, ideológicos o de cualquier tipo.
Es necesario comprender que la inteligencia llamada “artificial” es una creación humana; que como tal está sujeta a nuestros mismos límites, errores y tendencias. Que es nuestra responsabilidad promover relaciones igualitarias y respetuosas entre las personas, de modo que esa realidad se refleje en lo que escribimos, expresamos y compartimos en el entorno digital. También tenemos que promover legislaciones que limiten la elaboración de algoritmos injustos y promotores de polarización y violencia.
Y sólo así, en un progresivo perfeccionamiento de las inteligencias artificiales, lograremos retroalimentar el respeto a la dignidad de toda persona, sea cual sea su condición.
[1] https://theconversation.com/el-maltrato-verbal-hacia-las-mujeres-en-las-redes-se-traslada-a-la-inteligencia-artificial-242945
https://www.scientificamerican.com/article/chatgpt-replicates-gender-bias-in-recommendation-letters/
https://blogs.lse.ac.uk/medialse/2024/04/26/patriarchal-ai-how-chatgpt-can-harm-a-womans-career/
Diciembre de 2024