IAcracia universitaria: los riesgos del copilotaje en la gestión Nodocente

Autores/as

DOI:

https://doi.org/10.5281/zenodo.17406756

Palabras clave:

Inteligencia Artificial, IAcracia, Gestion Nodocente

Resumen

El artículo analiza el impacto de la incorporación de copilotos virtuales y sistemas algorítmicos en la gestión académico-administrativa universitaria, con foco en la Universidad de Buenos Aires. Se introduce el concepto de IAcracia universitaria para problematizar la delegación de decisiones institucionales a sistemas opacos y no deliberativos, que ponen en riesgo la transparencia, la soberanía de los datos y el cogobierno. A partir de un enfoque crítico, se discuten los riesgos de desplazamiento del trabajo Nodocente, la pérdida de legitimidad en los procesos y la posible reproducción de desigualdades estructurales. Se propone avanzar hacia políticas de soberanía algorítmica que incluyan marcos normativos, auditoría de sistemas, participación activa de todos los claustros y desarrollo de soluciones bajo principios de software libre, garantizando que la innovación tecnológica se articule con la equidad, la democracia y la justicia educativa.

Referencias

Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press.

Danish Agency for Digital Government. (2022). Artificial intelligence in Denmark. https://en.digst.dk/policy-and-strategy/artificial-intelligence/

El Estado Virtual. (2021). X-Road: El sistema operativo de los Estados. https://elestadovirtual.com/x-road-el-sistema-operativo-de-los-estados/

European Commission. (2019). Ethics guidelines for trustworthy AI. https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai

European Commission. (2021). Proposal for a regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206

Eubanks, V. (2018). Automating inequality: How high-tech tools profile, police, and punish the poor. St. Martin’s Press.

Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., ... & Schafer, B. (2018). AI4People—An ethical framework for a good AI society: Opportunities, risks, principles, and recommendations. Minds and Machines, 28(4), 689–707. https://doi.org/10.1007/s11023-018-9482-5

Gentilini, U., Grosh, M., Rigolini, J., & Yemtsov, R. (2020). Exploring universal basic income: A guide to navigating concepts, evidence, and practices. World Bank. https://doi.org/10.1596/978-1-4648-1458-7

Government of Canada. (2022). Algorithmic impact assessment. https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html

Guerschberg, L. (2025). IAcracia: Nuevos desafíos del Estado. Sapiens in Artificial Intelligence, 2(1), e-21004. https://revistasapiensec.com/index.php/Sapiens_in_Artificial_Intelligen/article/view/193

Lazcoz Moratinos, G., & Castillo Parrilla, J. A. (2020). Valoración algorítmica ante los derechos humanos y el Reglamento General de Protección de Datos: El caso SyRI. Revista Chilena de Derecho y Tecnología, 9(1), 207–225. https://doi.org/10.5354/0719-2584.2020.56843

Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. (2021). A survey on bias and fairness in machine learning. ACM Computing Surveys, 54(6), 1–35. https://doi.org/10.1145/3457607

Ministry of Finance Finland. (2020). AuroraAI – Towards a human-centric and ethically sustainable digital society. United Nations Department of Economic and Social Affairs. https://publicadministration.desa.un.org/good-practices-for-digital-government/compendium/aurora-ai-finland

New Zealand Government. (2021). Algorithm charter for Aotearoa New Zealand. https://data.govt.nz/assets/data-ethics/algorithm/Algorithm-Charter-2020_Final-English-1.pdf

Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. NYU Press. https://doi.org/10.2307/j.ctt1pwt9w5

OECD. (2021). OECD digital government index: 2020 results. https://www.oecd.org/en/publications/digital-government-index_4de9f5bb-en.html

Pasquale, F. (2015). The black box society: The secret algorithms that control money and information. Harvard University Press. https://www.jstor.org/stable/j.ctt13x0hch

Pasquale, F. (2020). New laws of robotics: Defending human expertise in the age of AI. Harvard University Press.

Susskind, D. (2022). A world without work: Technology, automation, and how we should respond. Oxford University Press. https://doi.org/10.1111/ntwe.12186

United Nations. (2021). AI for Good Global Summit. https://aiforgood.itu.int/

UNESCO. (2021). Recommendation on the ethics of artificial intelligence. https://unesdoc.unesco.org/ark:/48223/pf0000380455

Veale, M., & Edwards, L. (2018). Clarity, surprises, and further questions in the Article 29 Working Party draft guidance on automated decision-making and profiling. Computer Law & Security Review, 34(2), 398–404. https://doi.org/10.1016/j.clsr.2017.12.002

Descargas

Publicado

2025-10-16 — Actualizado el 2025-10-30

Versiones

Cómo citar

Guerschberg, L., & Benitez, M. L. (2025). IAcracia universitaria: los riesgos del copilotaje en la gestión Nodocente. Nexus Interdisciplinaris, 1(1), 23-34. https://doi.org/10.5281/zenodo.17406756 (Original work published 2025)