Diseño de materiales didácticos con perspectiva de género mediado por IA
DOI:
https://doi.org/10.5281/zenodo.17428671Palabras clave:
Perspectiva de género, equidad educativa, Educación Superior, IA, Material didácticoResumen
La perspectiva de género es un enfoque fundamental para garantizar la inclusión efectiva de las mujeres y diversidades en todos los niveles educativos, en especial en la educación superior. A pesar de los avances en la equidad de género, los materiales didácticos continúan reproduciendo sesgos que invisibilizan o estereotipan a ciertos grupos. En este contexto, la inteligencia artificial (IA) se presenta como una herramienta innovadora para asistir a los docentes en la confección, revisión y adecuación de materiales educativos con una mirada inclusiva. Este ensayo analiza cómo la IA puede contribuir en dos niveles: por un lado, en la generación de contenidos con perspectiva de género, y por otro, en el análisis de materiales existentes mediante algoritmos de procesamiento de lenguaje natural (PLN) que detectan sesgos y proponen modificaciones. No obstante, la incorporación de la IA en el ámbito educativo no está exenta de desafíos, ya que los modelos de aprendizaje automático pueden perpetuar sesgos si no son diseñados y supervisados adecuadamente. A partir de una revisión crítica de la literatura y experiencias previas, se argumenta que la IA tiene el potencial de mejorar la equidad en los materiales educativos, siempre que se implemente con criterios éticos y un monitoreo continuo.
Referencias
1. Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big?. Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610–623.
https://doi.org/10.1145/3442188.3445922
2. Blumberg, R.L. The invisible obstacle to educational equality: gender bias in textbooks. Prospects 38, 345–361 (2008). https://doi.org/10.1007/s11125-009-9086-1
3. Bonder, G. (2018). Educación y género: desafíos para la equidad. Buenos Aires:
CLACSO.
4. Bolukbasi, T., Chang, K. W., Zou, J. Y., Saligrama, V., & Kalai, A. (2016). Man is to computer programmer as woman is to homemaker? Debiasing word embeddings.
Advances in Neural Information Processing Systems, 29.
https://arxiv.org/abs/1607.06520
5. Caliskan, A., Bryson, J. J., & Narayanan, A. (2017). Semantics derived automatically from language corpora contain human-like biases. Science, 356(6334), 183-186. https://doi.org/10.1126/science.aal4230
6. Connell, R. (2020). Gender: In world perspective. Polity Press.
7. Dasgupta, N., & Stout, J. G. (2014). Girls and women in science, technology, engineering, and mathematics: STEMing the tide and broadening participation in STEM careers. Policy Insights from the Behavioral and Brain Sciences, 1(1), 21-29. https://doi.org/10.1177/2372732214549471
8. Garg, N., Schiebinger, L., Jurafsky, D., & Zou, J. (2018). Word embeddings quantify
100 years of gender and ethnic stereotypes. Proceedings of the National Academy of Sciences, 115(16), E3635-E3644. https://doi.org/10.1073/pnas.1720347115
9. Luckin, R. (2017). Enhancing learning and teaching with technology: What the research says. UCL Institute of Education Press.
10. Selwyn, N. (2019). Should robots replace teachers? AI and the future of education. Polity Press.
11. Subirats, M., & Tomé, A. (2019). Los chicos y las chicas en los libros de texto: Un análisis de la invisibilidad de las mujeres en la enseñanza. Editorial Octaedro.
Publicado
Versiones
- 2025-10-30 (5)
- 2025-10-30 (4)
- 2025-10-23 (3)
- 2025-05-10 (2)
- 2025-05-10 (1)
Número
Sección
Licencia
Derechos de autor 2025 Nexus Interdisciplinaris

Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-CompartirIgual 4.0.