Málaga, 8 de octubre de 2025 – Un nuevo estudio publicado hoy en la prestigiosa revista Nature ha revelado cómo la inteligencia artificial (IA) no solo refleja, sino que también amplifica los estereotipos de género relacionados con la edad. La investigación, liderada por Douglas Guilbeault de la Universidad de Stanford, analiza un vasto conjunto de datos de internet y modelos de lenguaje, exponiendo una clara tendencia a representar a las mujeres como más jóvenes que los hombres, especialmente en contextos profesionales de alto estatus. Este preocupante hallazgo pone de manifiesto la urgencia de abordar los sesgos incrustados en la tecnología que utilizamos a diario.
El equipo de investigación examinó 1.4 millones de imágenes y vídeos de plataformas populares como Google, Wikipedia, IMDb, Flickr y YouTube. Los resultados son contundentes: la edad de las mujeres se infravalora sistemáticamente en comparación con la de los hombres. Por ejemplo, Google Images tiende a mostrar a las doctoras como jóvenes veinteañeras, mientras que a los doctores se les representa en una franja de edad entre los 25 y los 34 años. Esta disparidad, aunque sutil, tiene profundas implicaciones en cómo percibimos el rol de la mujer en la sociedad y en el mercado laboral.
Pero la investigación va más allá de la mera observación. Los científicos también analizaron nueve modelos de lenguaje, incluyendo ChatGPT, y descubrieron que estos sistemas también exhiben sesgos similares. Cuando se les pide que evalúen currículums, los modelos de IA tienden a favorecer a los hombres mayores sobre las mujeres jóvenes, perpetuando la idea de que la experiencia y la madurez son atributos más valiosos en los hombres que en las mujeres. Este hallazgo es especialmente preocupante, ya que la IA se está utilizando cada vez más en procesos de selección de personal, lo que podría exacerbar aún más la discriminación por edad y género.
Para comprender mejor cómo estos sesgos afectan a la percepción pública, los investigadores llevaron a cabo un experimento en el que pidieron a un grupo de voluntarios que estimaran la edad promedio de hombres y mujeres en diferentes profesiones. A la mitad de los participantes se les permitió buscar imágenes en Google antes de dar su respuesta. Los resultados revelaron que aquellos que utilizaron Google para obtener información tendían a subestimar la edad de las mujeres en comparación con aquellos que no lo hicieron. Esto sugiere que las imágenes sesgadas en línea pueden influir en nuestra percepción de la edad y la competencia de las mujeres en el trabajo.
El estudio desafía la noción de que los estereotipos capturan una parte de la realidad. Al comparar los datos recopilados con el censo de EE. UU., los investigadores encontraron que no hay evidencia estadística que respalde la idea de que las mujeres son más jóvenes que los hombres en determinadas profesiones. Esto demuestra que los estereotipos de género relacionados con la edad son, en gran medida, una construcción social que se perpetúa a través de la cultura y, ahora, a través de la inteligencia artificial.
Este estudio es una llamada de atención para los desarrolladores de IA, los responsables políticos y la sociedad en general. Es fundamental que se tomen medidas para mitigar los sesgos en la tecnología y promover una representación más equitativa de las mujeres en todos los ámbitos de la vida. La lucha contra el edadismo de género debe ser una prioridad en la era digital, y la transparencia y la rendición de cuentas son esenciales para garantizar que la IA no se convierta en una herramienta para perpetuar la desigualdad.
La noticia no es, lamentablemente, una sorpresa, sino la confirmación empírica de un sesgo que venimos intuyendo desde que la IA comenzó a permear nuestras vidas. Que los algoritmos, supuestamente objetivos, amplifiquen el edadismo de género es una acusación grave y, al mismo tiempo, un espejo deformante que refleja los peores vicios de nuestra sociedad. No se trata únicamente de un problema estético, sino de una profunda injusticia que socava la credibilidad profesional de las mujeres, especialmente en puestos de responsabilidad. Urge, por tanto, una revisión exhaustiva de los conjuntos de datos utilizados para entrenar estas inteligencias, así como una mayor diversidad en los equipos de desarrollo para evitar que estos prejuicios se sigan replicando y perpetuando.
Más allá de la denuncia, el estudio plantea una cuestión fundamental: ¿quién responde por los sesgos de la IA? Si la herramienta utilizada en un proceso de selección discrimina a una candidata basándose en su edad percibida, ¿a quién podemos exigir responsabilidades? La respuesta no es sencilla y requiere un debate ético y legal profundo. No basta con señalar a los algoritmos como los culpables; es necesario establecer mecanismos de control y transparencia que permitan auditar los resultados y garantizar una mayor equidad. La innovación tecnológica no puede ser una excusa para retroceder en la lucha por la igualdad de género; al contrario, debe ser una herramienta para construir un futuro más justo y equitativo.
El Diario de Málaga es el periódico digital dónde podrás seguir toda la actualidad malagueña al minuto.
To provide the best experiences, we and our partners use technologies like cookies to store and/or access device information. Consenting to these technologies will allow us and our partners to process personal data such as browsing behavior or unique IDs on this site and show (non-) personalized ads. Not consenting or withdrawing consent, may adversely affect certain features and functions.
Click below to consent to the above or make granular choices. Your choices will be applied to this site only. You can change your settings at any time, including withdrawing your consent, by using the toggles on the Cookie Policy, or by clicking on the manage consent button at the bottom of the screen.
Compartir en...
Completa el formulario o escríbenos a [email protected] y nos pondremos en contacto contigo tan pronto como sea posible.