IAcracia universitaria: los riesgos del copilotaje en la gestión Nodocente

 

Autor/a 1

Leandro Guerschberg

Sec. de Política e Interior - APUBA - Argentina

Leandro.guerschberg@docentes.unpaz.edu.ar

https://orcid.org/0009-0005-9286-6358

 

Autor/a 2

Maria Laura Benitez

DGCAP - UBA - Argentina

mlaurabenitez@uba.ar

https://orcid.org/0009-0005-8503-1029

 

Resumen

El artículo analiza el impacto de la incorporación de copilotos virtuales y sistemas algorítmicos en la gestión académico-administrativa universitaria, con foco en la Universidad de Buenos Aires. Se introduce el concepto de IAcracia universitaria para problematizar la delegación de decisiones institucionales a sistemas opacos y no deliberativos, que ponen en riesgo la transparencia, la soberanía de los datos y el cogobierno. A partir de un enfoque crítico, se discuten los riesgos de desplazamiento del trabajo Nodocente, la pérdida de legitimidad en los procesos y la posible reproducción de desigualdades estructurales. Se propone avanzar hacia políticas de soberanía algorítmica que incluyan marcos normativos, auditoría de sistemas, participación activa de todos los claustros y desarrollo de soluciones bajo principios de software libre, garantizando que la innovación tecnológica se articule con la equidad, la democracia y la justicia educativa.

Palabras clave: Inteligencia Artificial; IAcracia; gestión universitaria; personal Nodocente; soberanía algorítmica; cogobierno; software libre.

Abstract

The article examines the impact of introducing virtual copilots and algorithmic systems into academic-administrative management, focusing on the University of Buenos Aires. It introduces the concept of University IAcracy to critically address the delegation of institutional decisions to opaque, non-deliberative systems that threaten transparency, data sovereignty, and co-governance. From a critical perspective, the paper highlights the risks of displacing non-teaching staff, undermining institutional legitimacy, and reproducing structural inequalities. It advocates for the development of algorithmic sovereignty policies, including regulatory frameworks, system audits, active participation of all university constituencies, and open-source solutions, ensuring that technological innovation is aligned with equity, democracy, and educational justice.

Keywords: Artificial Intelligence; IAcracy; university management; non-teaching staff; algorithmic sovereignty; co-governance; open-source software.

    1.        Introducción

La irrupción de la Inteligencia Artificial (IA) en las estructuras administrativas de la universidad pública abre un campo de tensiones, desafíos y promesas que reconfiguran no solo sus prácticas de gestión, sino también los sentidos de lo público, lo democrático y lo humano en el gobierno, y por qué no, de la gobernanza de las instituciones educativas. En este marco, el concepto de IAcracia, entendido como el proceso por el cual la toma de decisiones públicas comienza a desplazarse hacia sistemas algorítmicos opacos (poco transparentes) y no deliberativos, resulta especialmente útil para reflexionar sobre el actual escenario universitario.

En la Universidad de Buenos Aires (UBA), así como en otras universidades de América Latina, la adopción progresiva y aleatoria de copilotos virtuales, asistentes automatizados, tableros predictivos y plataformas de gestión basadas en IA constituye una tendencia creciente que, si bien promete eficiencia y reducción de carga administrativa del personal Nodocente, también genera interrogantes profundos sobre la transparencia en la gestión de datos (y quién es, en última instancia, la institución que se hace de los mismos), el control institucional, el uso y preservación de datos personales e institucionales y el desplazamiento de funciones humanas claves en la administración universitaria.

Este trabajo se propone problematizar el uso excesivo de copilotos virtuales en la gestión académico-administrativa, abordando sus implicancias desde una perspectiva crítica inspirada en el paradigma socialdemócrata de la innovación tecnológica. Lejos de negar las potencialidades de la IA, el análisis se orienta a subrayar los riesgos de automatización acrítica en procesos altamente sensibles como el manejo de datos de estudiantes, asignación de clases y, por qué no de designaciones de docentes, la evaluación de trayectorias estudiantiles, la planificación curricular o la gestión de concursos docentes y Nodocentes. ¿Qué sucede cuando estos procesos, que exigen deliberación, sentido pedagógico, de gestión y administración y juicio político, son mediatizados o incluso sustituidos por algoritmos sin supervisión humana efectiva?

                1.1.        Copilotos virtuales y automatización en la gestión universitaria

El avance de plataformas de IA generativa y de asistentes algorítmicos, como los copilotos desarrollados por grandes corporaciones tecnológicas, han comenzado a permear diversos ámbitos de la gestión universitaria. En la UBA, por ejemplo, se exploran mecanismos de automatización para responder consultas frecuentes de estudiantes, generar documentos, analizar estadísticas académicas o redactar informes de desempeño, citando algunos ejemplos. En muchos casos, estos copilotos se integran a sistemas de gestión ya existentes, ampliando sus funcionalidades mediante procesamiento del lenguaje natural, análisis predictivo o generación automatizada de textos. La incorporación de la IA en la gestión procedimental, sin ser reglamentada y/o normada, tanto desde la Ley de procedimientos administrativos, o desde las normas que genera la propia universidad, incurre en posibles errores de gestión en el uso y entrega de datos e información sensible de la comunidad universitaria y de la institución, al software de origen, al existir un vacío legal, deja al trabajador, vulnerable a  sanciones y/o sumarios administrativos, por tal falta grave.

Esta transición no es menor. A diferencia de las tecnologías administrativas tradicionales, los copilotos virtuales no solo automatizan tareas, sino que toman decisiones, aunque sea de manera asistida. Esta capacidad decisional, por más limitada que sea, introduce una capa de opacidad en los procesos institucionales. Si el código de decisión no es accesible ni auditado, si los datos utilizados son sesgados o si el algoritmo se entrena con corpus desconocidos, nos enfrentamos a una forma de IAcracia universitaria: decisiones tomadas por sistemas que no rinden cuentas, ni están sometidos a procesos institucionales deliberativos.

Como señala Pasquale (2015), el problema de la sociedad de la caja negra se acentúa cuando los algoritmos intervienen sobre esferas de la vida pública en las que los criterios de justicia, equidad y sensibilidad social son centrales. La gestión universitaria, por su carácter formativo, institucional y socialmente responsable, es un ámbito en el que estas dimensiones no pueden subordinarse a la eficiencia técnica.

                1.2.        El caso UBA: copilotaje sin participación

Uno de los principales riesgos del uso intensivo de copilotos en la universidad radica en su implementación sin la debida participación de los actores institucionales, en nuestro caso, Nodocentes, trabajadores y trabajadoras de la Universidad.  En el caso de la Universidad de Buenos Aires (UBA), esta exclusión impacta especialmente a los y las Nodocentes, que conforman el corazón operativo de la vida universitaria. Su conocimiento y compromiso con el funcionamiento institucional son frecuentemente desestimados en los procesos de incorporación tecnológica, reduciendo su tarea a meros usuarios de herramientas previamente definidas sin su intervención. 

Esta situación genera una doble problemática. Por un lado, pone en riesgo los espacios laborales y las funciones humanas que los y las Nodocentes desarrollan en múltiples áreas de gestión. La automatización de tareas administrativas, lejos de constituir una simple mejora de procesos, puede convertirse en un mecanismo de desplazamiento silencioso del trabajo humano, en la medida en que se delegan funciones complejas —como expedientes o la elaboración de informes— a sistemas algorítmicos, sin contemplar, ni el saber construido por los equipos de trabajo, ni su rol esencial en el entramado institucional. Y a eso se le suma la exclusión de los y las Nodocentes de la UBA en el cogobierno universitario, con la consecuente falta de participación en los órganos estatutarios de decisión. Por lo tanto, por otro lado, la delegación de funciones en lo tecnocrático, vulnera los principios de cogobierno y participación que históricamente estructuran la vida universitaria. 

La UBA, con su tradición de cogobierno, debería ser un espacio privilegiado para discutir colectivamente los alcances, límites y criterios éticos de las tecnologías aplicadas a la gestión. Sin embargo, la incorporación de herramientas algorítmicas muchas veces ocurre de manera vertical, sin consulta a los claustros, sin evaluación de impacto ni auditoría previa. Otras veces, simplemente ocurre, es decir, se utilizan herramientas sin mediar planificación en su implementación. 

Esto genera una tensión evidente entre el principio de gobernanza democrática y el desarrollo tecnocrático. Como advierte Crawford (2021), cuando los sistemas automatizados reemplazan la deliberación pública, se produce un vaciamiento de la ciudadanía institucional. Las decisiones adoptadas por IA, aunque eficientes, pueden perder legitimidad si no se anclan en consensos institucionales explícitos.

Por ejemplo, si se utilizaran copilotos para realizar evaluaciones preliminares de currículums en concursos docentes y Nodocentes, o para sugerir dictámenes , pueden resultar altamente problemáticos, si no se informa a las juntas o consejos directivos, si no se explicita el criterio algorítmico y si no se garantiza la intervención humana final con capacidad real de revisión. De hecho planteamos algunos interrogantes ¿la IA diseñaría las pruebas de oposición? ¿quedaría librado al arbitrio de los algoritmos el control de las ponderaciones? ¿se eliminarían las figuras de los veedores gremiales (v.g. APUBA) en los concursos, si se utiliza IA para establecer los criterios de los concursos? 

En el apartado siguiente pondremos en tensión estas cuestiones. Porque en estos escenarios, el copilotaje deja de ser un recurso auxiliar para convertirse en un agente político silencioso, que orienta decisiones claves sin exposición pública, sin deliberación y, por tanto, sin responsabilidad

 

                1.3.        ¿IA para democratizar o para excluir?

Uno de los argumentos más frecuentes a favor del uso de IA en la gestión es su capacidad para reducir tiempos, mejorar la equidad en la asignación de recursos y evitar arbitrariedades humanas. Sin embargo, como señalan Noble (2018) y Mehrabi et al. (2021), los sistemas algorítmicos no están exentos de sesgos, y de hecho tienden a reproducir desigualdades preexistentes si no son cuidadosamente diseñados y auditados.

En el caso de la UBA, donde conviven miles de historias de trabajadores Nodocentes con la más variada formación, trayectorias estudiantiles diversas con desigualdades estructurales profundas, el uso de IA para predecir deserción, recomendar cambios de carrera, organizar datos  o incluso clasificar estudiantes puede ser un factor de estigmatización. Si los modelos de IA se entrenan con datos descontextualizados, pueden llegar a proponer políticas orientadas al “control del flujo estudiantil” más que al acompañamiento de trayectorias.

En este sentido, IAcracia no solo significa la automatización de la gestión, sino también la imposición silenciosa de un modelo de universidad orientado al rendimiento, la contabilidad y la segmentación, desplazando valores como el derecho a la educación, la diversidad y la inclusión.

                1.4.        Hacia una política universitaria de soberanía algorítmica

Frente a estos desafíos, resulta urgente que las universidades (y en particular la UBA) avancen hacia el diseño de políticas institucionales de soberanía algorítmica. Esto implica varios pasos clave:

        Garantizar que todos los sistemas de IA utilizados en la gestión universitaria sean auditables, medibles, explicables y sujetos a control por parte de los órganos de cogobierno.

 

        Establecer normas, que desde la autonomía universitaria, garanticen al personal Nodocente, el derecho a una gestión eficiente y eficaz en el uso de datos institucionales, sensibles, personales.

 

        Establecer protocolos éticos y jurídicos para el uso de datos sensibles, priorizando la privacidad Nodocente, Docente y estudiantil.

        Promover la formación de comités interdisciplinarios (compuestos por Nodocentes, Docentes, Estudiantes, Graduados, especialistas en ética digital, etc.) que evalúen el impacto de la IA en los procesos institucionales.

        Fomentar el desarrollo de copilotos virtuales desde la propia Universidad, bajo licencias abiertas y principios de software libre, en lugar de depender exclusivamente de soluciones provistas por grandes corporaciones privadas con lógicas de caja negra.

        Incluir el debate sobre IA, algoritmos y gobernanza digital en la agenda de los órganos de gobierno, y del propio Sindicato APUBA.

Solo así podremos evitar que la innovación tecnológica derive en una IAcracia universitaria sin control ni legitimidad, y convertirla, en cambio, en una herramienta al servicio de una universidad democrática, crítica y comprometida con el futuro.

    2.        Conclusiones

La implementación de copilotos virtuales en la gestión universitaria plantea dilemas que no pueden ser reducidos a cuestiones técnicas. Nos enfrentamos a una transformación profunda en la forma de gestionar, pero también de gobernar la universidad, donde el desplazamiento de decisiones hacia sistemas automatizados puede erosionar los principios mismos del cogobierno, la deliberación y la justicia educativa.

El concepto de IAcracia universitaria permite nombrar esta situación, visibilizando el riesgo de que la IA se convierta en una autoridad silenciosa (y oscura) en la gestión institucional. Este hecho no solamente deteriora los espacios de trabajo de los y las Nodocentes, sino que los aleja de la necesaria mirada humana, política y gremial que se requiere en cada uno de los procesos. Lejos de rechazar la tecnología, este trabajo propone su reapropiación crítica, bajo marcos éticos y democráticos que prioricen, por un lado, una mirada emancipadora vinculada al software libre y no a las grandes corporaciones, y por el otro, que garanticen la equidad, la transparencia y la participación activa de todos los actores universitarios con prioridad en el claustro Nodocente que son quienes ejecutan estas tareas a diario. La universidad del futuro no será simplemente más tecnológica, sino más justa si logra articular la innovación con una gestión centrada en las personas, los derechos y el saber compartido.

    3.        Bibliografía

Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press.

Danish Agency for Digital Government. (2022). Artificial intelligence in Denmark. https://en.digst.dk/policy-and-strategy/artificial-intelligence/

El Estado Virtual. (2021). X-Road: El sistema operativo de los Estados. https://elestadovirtual.com/x-road-el-sistema-operativo-de-los-estados/

European Commission. (2019). Ethics guidelines for trustworthy AI. https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai

European Commission. (2021). Proposal for a regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206

Eubanks, V. (2018). Automating inequality: How high-tech tools profile, police, and punish the poor. St. Martin’s Press.

Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., ... & Schafer, B. (2018). AI4People—An ethical framework for a good AI society: Opportunities, risks, principles, and recommendations. Minds and Machines, 28(4), 689–707. https://doi.org/10.1007/s11023-018-9482-5

Gentilini, U., Grosh, M., Rigolini, J., & Yemtsov, R. (2020). Exploring universal basic income: A guide to navigating concepts, evidence, and practices. World Bank. https://doi.org/10.1596/978-1-4648-1458-7

Government of Canada. (2022). Algorithmic impact assessment. https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html

Guerschberg, L. (2025). IAcracia: Nuevos desafíos del Estado. Sapiens in Artificial Intelligence, 2(1), e-21004. https://revistasapiensec.com/index.php/Sapiens_in_Artificial_Intelligen/article/view/193

Lazcoz Moratinos, G., & Castillo Parrilla, J. A. (2020). Valoración algorítmica ante los derechos humanos y el Reglamento General de Protección de Datos: El caso SyRI. Revista Chilena de Derecho y Tecnología, 9(1), 207–225. https://doi.org/10.5354/0719-2584.2020.56843

Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. (2021). A survey on bias and fairness in machine learning. ACM Computing Surveys, 54(6), 1–35. https://doi.org/10.1145/3457607

Ministry of Finance Finland. (2020). AuroraAI – Towards a human-centric and ethically sustainable digital society. United Nations Department of Economic and Social Affairs. https://publicadministration.desa.un.org/good-practices-for-digital-government/compendium/aurora-ai-finland

New Zealand Government. (2021). Algorithm charter for Aotearoa New Zealand. https://data.govt.nz/assets/data-ethics/algorithm/Algorithm-Charter-2020_Final-English-1.pdf

Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. NYU Press. https://doi.org/10.2307/j.ctt1pwt9w5

OECD. (2021). OECD digital government index: 2020 results. https://www.oecd.org/en/publications/digital-government-index_4de9f5bb-en.html

Pasquale, F. (2015). The black box society: The secret algorithms that control money and information. Harvard University Press. https://www.jstor.org/stable/j.ctt13x0hch

Pasquale, F. (2020). New laws of robotics: Defending human expertise in the age of AI. Harvard University Press.

Susskind, D. (2022). A world without work: Technology, automation, and how we should respond. Oxford University Press. https://doi.org/10.1111/ntwe.12186

United Nations. (2021). AI for Good Global Summit. https://aiforgood.itu.int/

UNESCO. (2021). Recommendation on the ethics of artificial intelligence. https://unesdoc.unesco.org/ark:/48223/pf0000380455

Veale, M., & Edwards, L. (2018). Clarity, surprises, and further questions in the Article 29 Working Party draft guidance on automated decision-making and profiling. Computer Law & Security Review, 34(2), 398–404. https://doi.org/10.1016/j.clsr.2017.12.002