Blancanieves, Cenicienta y La Bella Durmiente tienen más en común que sus orígenes como figuras clásicas de cuentos de hadas y, ahora, parte de la famosa lista de personajes de Disney. Sus cuentos de hadas también están llenos de sesgos y estereotipos de género, según estudiosos de la literatura, y ahora IA.
Un equipo de investigadores de la Universidad del Noreste, la Universidad de California en Los Ángeles e IBM Research ha creado un marco de inteligencia artificial que puede analizar los libros de cuentos infantiles y detectar casos de sesgo de género.
La forma en que los cuentos de hadas representan y enseñan lecciones, moral y roles socioculturales a los niños, especialmente a las niñas, se ha discutido en la academia y más allá durante décadas. Estas historias están llenas de princesas que necesitan ser salvadas y príncipes apuestos que están allí para salvarlas.
La esperanza es que la herramienta similar a un corrector ortográfico impulsada por IA que creó su equipo sea utilizada por escritores y editores, así como por investigadores, para crear historias más inclusivas para niños, dice Dakuo Wang, profesor asociado de Northeastern y uno de los los investigadores del proyecto.
«Si en el futuro tengo una niña, no quiero que se sienta desanimada para asumir esas tareas o conquistar esos desafíos [o] decir, alguien vendrá a salvarme o se supone que no es algo que haría como una niña», dice Wang. «Si podemos desarrollar una tecnología para detectar o marcar automáticamente ese tipo de sesgos y estereotipos de género, entonces al menos puede servir como una barandilla o una red de seguridad no solo para los cuentos de hadas antiguos, sino también para las nuevas historias que se están desarrollando. escrito y creado todos los días de hoy».
Todo este trabajo comenzó como parte de la investigación en curso del equipo sobre cómo la IA puede ayudar a desarrollar habilidades de aprendizaje de idiomas para niños pequeños. El equipo ya estaba interesado en los cuentos de hadas como herramientas para el aprendizaje de idiomas y había recopilado cientos de historias de todo el mundo para usar. como el «corpus» para que su algoritmo analice.
Reclutaron a un grupo de expertos en educación (maestros y académicos) para analizar las historias y crear una lista de preguntas y respuestas que ayudaría a probar si un niño estaba aprendiendo de estas historias. El resultado final fue 10,000 pares de preguntas y respuestas: –y la constatación de que todas estas historias, sin importar de dónde vinieran, tenían estereotipos de género «obstinados y profundos».
La princesa come una manzana envenenada, es encarcelada, secuestrada o maldecida o muere y no tiene ningún medio para cambiar su situación.Mientras tanto, los personajes masculinos (príncipes, reyes y héroes) estaban matando dragones, rompiendo las maldiciones y salvando a la princesa.
Investigaciones anteriores en esta área se centraron en lo que Wang llama el «nivel superficial» de sesgo. Eso significaba analizar historias e identificar parejas de palabras o frases, como «príncipe» y «valiente», que conectan ideas e identidades de formas específicas. el equipo quería ir más profundo.
Se centraron en «cadenas de eventos narrativos temporales», la combinación específica y el orden de eventos y acciones que experimenta o realiza un personaje.
«En realidad, es la experiencia y la acción lo que define quién es esta persona, y esas acciones influyen en nuestros lectores sobre lo que [ellos] deben o no deben hacer para imitar a ese personaje ficticio», dice Wang.
Usando los cientos de historias que habían recopilado, el equipo creó procesos automatizados para extraer los nombres y géneros de los personajes junto con cada evento. Cada evento se analizó y se le asignó una proporción de probabilidades, con qué frecuencia estaba conectado a un personaje masculino o femenino.
De los 33.577 eventos analizados en el estudio, el 69 % se atribuyeron a personajes masculinos y el 31 % a personajes femeninos. Los eventos asociados a personajes femeninos a menudo estaban relacionados con tareas domésticas como arreglarse, limpiar, cocinar y coser, mientras que los de personajes masculinos eran conectado con el fracaso, el éxito o la agresión.
Con toda esa información, Wang y el equipo crearon una herramienta de procesamiento de lenguaje natural que podría ir más allá del análisis de eventos individuales para encontrar sesgos en las cadenas de eventos.
«Alguien está siendo salvado y luego se casa y luego vive feliz para siempre; otros mataron al monstruo, salvaron a la princesa y vivieron felices para siempre», dice Wang. «No es la parte de ‘vivieron felices para siempre’ o ‘casarse’». ‘ que son diferentes. En realidad, son los eventos que suceden antes de estos eventos en una cadena los que marcan la diferencia».
Al automatizar este proceso, Wang dice que espera que la herramienta encuentre uso entre las personas fuera de la comunidad de investigación que realmente están creando, o recreando, estas historias para la próxima generación.
«Con nuestra herramienta, pueden simplemente cargar su primer borrador en una herramienta como esta y debería generar algún puntaje o medidor que indique: «Estas son las cosas que puede o no desea verificar. Si esta intención no es lo que desearía quiere expresar, entonces tal vez debería pensar en una reescritura. Aquí hay algunas sugerencias», dice Wang.
En el futuro, Wang y el equipo planean expandir su trabajo para observar otras formas de sesgo. También usarán su herramienta para evaluar los sesgos de otra IA. Esperan usar su algoritmo para analizar si ChatGPT tiene los mismos sesgos de género. y estereotipos cuando crea contenido basado en estas historias.
«Proponemos que esta es en realidad una tarea, una tarea que la comunidad técnica realmente puede ayudar a conquistar», dice Wang. «No decimos que nuestro método sea el mejor. Solo decimos que nuestro método es el primero en hacer esta tarea, y esta tarea es tan predominante. Tal vez deberíamos cambiar parte de nuestra atención a estos desafíos y tareas sociales existentes».
Más información: Paulina Toro Isaza et al, Are Fairy Tales Fair?Analyzing Gender Bias in Temporal Narrative Event Chains of Children’s Fairy Tales, arXiv (2023).DOI: 10.48550/arxiv.2305.16641
Información de la revista: arXiv
►La entrada ¿Son justos los cuentos de hadas? La IA ayuda a encontrar sesgos de género se publicó primero en MxPolítico.◄