Los modelos de lenguaje de inteligencia artificial son sexistas hoy, pero no tiene que ser así por siempre
- Daniela Malqui

- 1 dic 2023
- 1 Min. de lectura

Los modelos de lenguaje como ChatGPT o LLaMA están revolucionando la forma en que nos comunicamos, trabajamos y creamos. Pero hay un problema serio que no podemos ignorar: estos sistemas aprenden de textos históricos y actuales que están plagados de estereotipos de género. ¿El resultado? Una IA que tiende a reproducir roles tradicionales y sexistas.
Un estudio reciente de la UNESCO reveló que, al analizar nombres femeninos, los modelos los asocian con palabras como “hogar” o “niños”, mientras que los masculinos aparecen vinculados a “dinero”, “empresa” o “liderazgo”. En los relatos generados, los hombres suelen ser médicos, empresarios o políticos; las mujeres, por el contrario, aparecen como niñeras, modelos o meseras.
Esto no es casualidad. Las bases de datos con las que se entrena la IA reflejan los sesgos del mundo real, y además, la mayoría de quienes diseñan estas herramientas siguen siendo hombres (solo entre el 20 y 22 % del personal técnico en IA son mujeres). Esto agrava el problema y limita la creación de tecnologías realmente inclusivas.
La buena noticia es que no todo está perdido. Estas son algunas soluciones concretas: limpiar los datos de entrenamiento, incluir más voces diversas en los equipos de desarrollo, regular el uso de estas tecnologías y auditar constantemente sus resultados.
La inteligencia artificial está dando forma al futuro. Pero si no la cuestionamos, corremos el riesgo de que ese futuro esté atrapado en los prejuicios del pasado.




Comentarios