El destino pedagógico de la inteligencia artificial: La “paradoja del Preguntados”

  

Autor  

Leandro Guerschberg 

Universidad Nacional de José C. Paz Provincia de Buenos Aires - Argentina  Leandro.guerschberg@docentes.unpaz.edu.ar

 https://orcid.org/0009-0005-9286-6358 

 

 DOI: 10.5281/zenodo.17873099

 

Resumen

El artículo analiza críticamente la transformación del conocimiento en la era de la inteligencia artificial generativa a partir de la metáfora de la “paradoja del Preguntados”. El autor sostiene que el pasaje desde la sociedad del conocimiento hacia una “sociedad artificial” implica una mutación epistemológica en la que la inteligencia humana se externaliza en sistemas algorítmicos que automatizan la producción de sentido. El texto argumenta que, así como el juego Preguntados perdió valor al permitir que los usuarios incorporaran preguntas mal formuladas, la IA generativa se degrada cuando el pensamiento humano deja de formular interrogantes rigurosos, retroalimentando un círculo de superficialidad cognitiva. En este marco, la alfabetización informacional tradicional resulta insuficiente y es necesario avanzar hacia una alfabetización algorítmica inspirada en la pedagogía crítica de Freire, orientada a comprender, interrogar y desnaturalizar los procesos automatizados de producción de conocimiento. El ensayo advierte que la IA generativa no sólo produce respuestas sin comprensión, sino que también reconfigura la autoridad epistémica, desplazando al sujeto como agente del saber. Finalmente, se plantea que el desafío educativo contemporáneo consiste en recuperar el valor de la pregunta como acto emancipador, resistiendo la automatización del pensamiento y promoviendo una pedagogía que combine crítica, ética y creatividad en la era algorítmica.

 

 

Palabras clave: inteligencia artificial, alfabetización algorítmica, sociedad artificial, pedagogía crítica.

Abstract

This article offers a critical examination of the epistemic transformations brought about by generative artificial intelligence through the metaphor of the “Preguntados paradox.” It argues that the shift from the knowledge society to an emerging “artificial society” entails a profound reconfiguration of how knowledge is produced, validated, and circulated, as human intelligence becomes increasingly externalized in algorithmic systems. Much like the decline of the quiz game Preguntados—triggered by user-generated questions of poor quality—generative AI deteriorates when human inquiry loses rigor, creating a feedback loop of cognitive degradation. Within this context, traditional digital literacy is deemed insufficient; instead, the article calls for an algorithmic literacy grounded in Freirean critical pedagogy, enabling citizens to interrogate and understand the power structures and biases embedded in automated decision-making systems. The text highlights that generative AI does not simply provide answers without understanding but also reshapes epistemic authority by displacing humans as active subjects of knowledge. Ultimately, the article posits that contemporary education must reclaim questioning as an emancipatory act, resisting the automation of thought and fostering reflective, ethical, and creative engagement with technologies that increasingly mediate the construction of meaning.

Keywords: artificial intelligence, algorithmic literacy, artificial society, critical pedagogy.

1.- Introducción

De la ilusión del conocimiento colectivo a la paradoja del Preguntados

Desde el surgimiento de la llamada sociedad del conocimiento, a finales del siglo XX, se ha instalado una narrativa optimista en torno al potencial democratizador del acceso a la información. La promesa de un mundo interconectado, donde el saber circula sin restricciones, fue interpretada como el paso evolutivo de la humanidad hacia una nueva forma de inteligencia colectiva (Stehr, 2012; Castells, 1996). En ese horizonte, la digitalización aparecía como el gran catalizador del desarrollo social y educativo. Sin embargo, a medida que los sistemas digitales se volvieron ubicuos y la inteligencia artificial (IA) comenzó a intervenir en la producción, selección y validación del conocimiento, aquella utopía se transformó en un terreno más ambiguo, donde la abundancia informacional convive con la pobreza epistémica. La presente reflexión parte de esa contradicción y la examina a través de una metáfora aparentemente lúdica pero profundamente significativa: la paradoja del Preguntados.

El célebre juego de preguntas y respuestas, que supo cautivar a millones de usuarios, condensaba una aspiración pedagógica: aprender jugando, reforzar conocimientos y estimular la curiosidad a través de la competencia sana y el intercambio. Su éxito se debía, en gran parte, a la calidad de las preguntas: formulaciones precisas, opciones de respuesta coherentes, distractores plausibles y una estructura que equilibraba el desafío con la recompensa. El diseño era, en sí mismo, una lección sobre cómo construir conocimiento: formular una buena pregunta implicaba comprender la naturaleza del saber. No obstante, cuando la base de datos se agotó y los desarrolladores decidieron permitir que los usuarios incorporaran sus propias preguntas, se desencadenó un proceso de degradación. La apertura participativa, que en principio buscaba fortalecer la dimensión colectiva del aprendizaje, derivó en una saturación de contenidos mal redactados, respuestas erróneas o ambiguas y distractores carentes de sentido. La experiencia de juego —y con ella, la experiencia de aprendizaje— se empobreció notablemente.

Esta deriva, que comenzó como un simple fenómeno de diseño lúdico, puede leerse hoy como una metáfora anticipatoria de la crisis cognitiva que atraviesa la era de la inteligencia artificial generativa. Así como Preguntados se vio corroído por el mal uso de sus propios usuarios, los modelos de IA actuales enfrentan una situación análoga: la calidad de su “aprendizaje” depende de la calidad de los datos con que son alimentados y, en consecuencia, de los usos que las personas hacen de ellos. Cuando los usuarios promueven, consciente o inconscientemente, contenidos sesgados, triviales o falsos, la máquina aprende mal, replica errores y amplifica distorsiones. La circularidad se vuelve inevitable: el mal aprendizaje humano retroalimenta el mal aprendizaje artificial.

En este contexto, resulta necesario preguntarse qué tipo de sociedad está emergiendo. Durante las últimas décadas, el paradigma de la sociedad del conocimiento —descrito por Stehr (2012) como un estadio en el cual el saber se convierte en el principal recurso productivo— fue desplazado progresivamente por nuevas formulaciones: sociedad de la información (Webster, 2014), sociedad en red (Castells, 1996), sociedad de datos (Floridi, 2020) o sociedad algorítmica (Baldi, 2017). Cada una de ellas intenta capturar un aspecto de la transformación estructural en curso, pero todas coinciden en un punto: el conocimiento ha dejado de ser un bien compartido para convertirse en un proceso mediado, filtrado y moldeado por sistemas automatizados.

Baldi (2017) advierte que vivimos “más allá de la sociedad algorítmica”, en un escenario donde los procesos de automatización cognitiva generan una nueva forma de alienación digital. La promesa de empoderamiento ciudadano se invierte: los usuarios ya no ejercen el control sobre los flujos de información, sino que son gobernados por ellos. Desde otra perspectiva, Floridi (2020) describe este fenómeno como una mutación ontológica hacia lo que denomina infosfera, un entorno donde los límites entre lo humano, lo técnico y lo informacional se desdibujan. En esta infosfera, el conocimiento no se construye dialógicamente, sino que se diseña: la filosofía, sugiere Floridi, se convierte en un acto de diseño conceptual, mientras la inteligencia humana se reconfigura dentro de sistemas de información distribuidos.

Si en la sociedad del conocimiento la pregunta era el motor del saber, en la sociedad artificial la pregunta parece haberse vuelto innecesaria. El acceso inmediato a respuestas automatizadas reduce la experiencia cognitiva al consumo pasivo de información. Pasquinelli (2023), en su The Eye of the Master, propone una lectura genealógica de esta condición: la IA no sólo automatiza procesos, sino que reconfigura la relación entre maestro y aprendiz. La máquina, al convertirse en el “ojo del maestro”, ocupa el lugar del criterio, del juicio y de la autoridad epistémica. Pero ese ojo, a diferencia del humano, no enseña a preguntar: sólo responde.

Desde el punto de vista educativo, esta mutación tiene implicancias profundas. La pedagogía crítica de Paulo Freire, retomada por Aparici, Bordignon y Martínez-Pérez (2021), había advertido que la educación bancaria —aquella que deposita respuestas en los estudiantes sin promover el diálogo— conduce a la pasividad y la dependencia. Hoy, las inteligencias artificiales generativas representan la forma más avanzada de esa lógica bancaria: entregan respuestas inmediatas, sin exigir procesos reflexivos. El estudiante deja de ser sujeto cognoscente para convertirse en consumidor de conocimiento. La alfabetización digital, en consecuencia, debe transformarse en alfabetización algorítmica: un proceso que no sólo enseñe a usar las herramientas, sino a comprender las estructuras de poder, decisión y sesgo que las configuran.

El paralelismo con Preguntados adquiere aquí todo su sentido. En el momento en que los usuarios perdieron el cuidado por la precisión de las preguntas, el juego se volvió irrelevante; la comunidad dejó de aprender porque dejó de preguntar bien. De manera similar, cuando los usuarios de IA pierden la capacidad de formular preguntas pertinentes, éticas y complejas —cuando reemplazan la curiosidad por la comodidad—, las máquinas devuelven respuestas cada vez más pobres, más predecibles, más tautológicas. La inteligencia artificial no es entonces el origen del problema, sino su espejo: refleja la calidad del pensamiento humano que la alimenta.

Esta paradoja —la paradoja del Preguntados— sintetiza la crisis actual de la IA y, al mismo tiempo, la crisis educativa contemporánea. El aprendizaje ha sido externalizado y automatizado; la pregunta, desplazada por la respuesta. La consecuencia es un empobrecimiento de la experiencia cognitiva colectiva, donde la información circula con fluidez, pero el conocimiento significativo se desvanece.

Así, el interrogante central de este ensayo puede formularse en los términos de una transición epistémica aún en disputa: ¿seguimos viviendo en una sociedad del conocimiento, en una sociedad de datos, en una sociedad algorítmica o en una sociedad artificial? Las próximas secciones intentarán explorar esta cuestión a partir de un diálogo crítico entre las teorías de la información, la filosofía de la tecnología y la pedagogía emancipadora. Pero, sobre todo, buscarán recuperar un gesto esencial del pensamiento: la capacidad de formular preguntas que valgan la pena ser pensadas.

La sociedad del conocimiento y su mutación algorítmica

El tránsito desde la sociedad del conocimiento hacia lo que hoy puede denominarse sociedad artificial no constituye una mera evolución tecnológica, sino una transformación epistemológica y ontológica de las condiciones bajo las cuales se produce, circula y valida el saber. Lo que comenzó como un ideal emancipador sustentado en la expansión del conocimiento humano —el sueño de una ciudadanía crítica y autónoma— se ha convertido, con la irrupción de la inteligencia artificial generativa (IAG), en un ecosistema donde la inteligencia misma se externaliza y automatiza (Guerschberg & Gutiérrez, 2025).

A través de esta metáfora, el ensayo propone reflexionar sobre cómo la inteligencia artificial enfrenta su momento más crítico: cuando el aprendizaje humano y el automatizado se confunden en una espiral de retroalimentación que erosiona el sentido de preguntar.

Metodológicamente, el presente trabajo se inscribe en el campo del ensayo teórico-crítico, orientado a la comprensión de las transformaciones epistémicas y pedagógicas derivadas del uso de la inteligencia artificial generativa. No se trata de un estudio empírico, sino de una reflexión interpretativa sustentada en fuentes contemporáneas de la filosofía de la información, la pedagogía crítica y los estudios sociotécnicos. El análisis recurre a analogías lúdico-educativas, como la del juego Preguntados, para traducir procesos complejos de automatización cognitiva a imágenes culturales comprensibles. Esta metodología busca articular lo conceptual con lo simbólico, lo educativo con lo tecnológico, en una clave hermenéutica y crítica. En esta línea, se recupera la advertencia de Neil Selwyn (2022), quien sostiene que el entusiasmo por la inteligencia artificial educativa oculta sus contextos de hipérbole, limitaciones, daños sociales, ideología y costes ecológicos, recordándonos que la educación mediada por IA no puede comprenderse al margen de las relaciones de poder y de los dilemas éticos que la atraviesan

2.- De la sociedad del conocimiento al predominio del dato

En la segunda mitad del siglo XX, autores como Peter Drucker (1969) y Nico Stehr (2012) conceptualizaron la sociedad del conocimiento como una nueva forma de organización social y económica, basada en la primacía del saber especializado como capital estratégico. El conocimiento, más que un bien cultural, se transformaba en un recurso productivo capaz de generar innovación y desarrollo. En este paradigma, la educación desempeñaba un rol crucial: formar sujetos críticos y competentes, capaces de transformar la información en saber socialmente útil.

Sin embargo, a medida que los procesos de digitalización se aceleraron, el ideal del conocimiento reflexivo fue desplazado por la lógica cuantitativa de los datos. La sociedad de la información (Webster, 2014) reconfiguró el valor del conocimiento en términos de velocidad y volumen: la cantidad de información disponible pasó a ser sinónimo de progreso. Pero, como advirtieron Castells (1996) y Van Dijk (2006), este acceso masivo no garantizó un acceso equitativo al saber. La brecha digital dejó de ser un problema de infraestructura para transformarse en una brecha cognitiva, donde la alfabetización crítica resultaba tan importante como la conectividad.

La sociedad algorítmica y la erosión del juicio humano

El siglo XXI consolidó un nuevo estadio: la sociedad algorítmica, caracterizada por el poder estructurante de los sistemas de recomendación y predicción. Vania Baldi (2017) la describe como una fase “más allá de la automatización”, donde la mediación tecnológica se convierte en el principio rector de la experiencia social. Ya no son los sujetos quienes seleccionan o interpretan la información, sino los algoritmos quienes deciden qué se muestra, cuándo y a quién. En este contexto, la noción de autonomía cognitiva comienza a erosionarse.

Peeters y Schuilenburg (2023) denominan a este fenómeno gobernanza algorítmica: un régimen donde la toma de decisiones se desplaza desde la deliberación humana hacia el cálculo automatizado. Los algoritmos no solo filtran el mundo, sino que lo configuran. Las plataformas digitales dejan de ser mediadores neutrales y se convierten en infraestructuras de poder que orientan la atención, modelan el deseo y determinan la visibilidad del discurso. En la sociedad algorítmica, el conocimiento ya no se construye colectivamente: se correlaciona estadísticamente.

Esta racionalidad algorítmica —eficiente pero opaca— sustituye la argumentación por la correlación y el juicio por la probabilidad. La consecuencia es una transformación del propio sentido del saber. Como señala Floridi (2020), el conocimiento se disuelve en la infosfera, un entorno donde humanos y sistemas informacionales coexisten en una simbiosis constante. En la infosfera, la inteligencia humana ya no domina el proceso de producción del conocimiento, sino que forma parte de una ecología híbrida donde los algoritmos también “piensan”, deciden y aprenden.

La llegada de la inteligencia artificial generativa (IAG) —modelos capaces de crear textos, imágenes, sonidos o decisiones sin supervisión humana directa— ha marcado un punto de inflexión. Como señala Ferrara (2023, 2024), los modelos de lenguaje a gran escala no solo procesan información: la generan, produciendo narrativas completas capaces de moldear el debate público, manipular emociones o alterar percepciones colectivas. Esta automatización del discurso inaugura una nueva morfología de la vida digital.

En este marco, el concepto de Sociedad Artificial (Guerschberg & Gutiérrez, 2025) emerge como una categoría interpretativa necesaria para describir la etapa actual del desarrollo sociotécnico. A diferencia de las nociones previas —sociedad del conocimiento, de la información o algorítmica—, la sociedad artificial no se define por la circulación de datos ni por la intermediación técnica, sino por la externalización de la inteligencia y la automatización del sentido.

Guerschberg y Gutiérrez (2025) sostienen que esta nueva fase implica una ruptura epistemológica: la producción del conocimiento deja de depender de la reflexión humana y pasa a ejecutarse mediante sistemas autónomos que aprenden del comportamiento colectivo. En consecuencia, la inteligencia artificial deja de ser una herramienta de mediación y se convierte en un agente cognitivo que produce realidad. La cultura, antes mediada por la técnica, es ahora producida por ella.

En la sociedad artificial, la agencia cognitiva se traslada del sujeto al modelo generativo. Los algoritmos no solo seleccionan o jerarquizan información, sino que crean significado, configurando un mundo en el que la distinción entre lo verdadero y lo verosímil se diluye. Como advierte Pasquinelli (2023), la IA se convierte en una “máquina de síntesis cognitiva”: genera sentido a partir de correlaciones estadísticas, sin comprensión semántica ni intención comunicativa. Este desplazamiento del saber reflexivo hacia el saber sintético inaugura una forma de conocimiento sin sujeto.

La sociedad artificial como ruptura epistémica

La sociedad artificial representa, por tanto, un cambio de régimen epistemológico. En ella, el conocimiento ya no se produce socialmente, sino que se simula tecnológicamente. Las categorías clásicas de autoría, autenticidad y creatividad se redefinen bajo una lógica probabilística. La inteligencia humana —acumulativa, contextual y ética— se sustituye por una inteligencia estadística, distribuida en infraestructuras de cálculo global.

A diferencia de la sociedad del conocimiento, que aspiraba a la emancipación a través del saber, la sociedad artificial plantea el riesgo de una dependencia estructural: cuanto más delegamos la cognición en sistemas automatizados, menos capaces somos de sostener la pregunta crítica. En términos pedagógicos, esto equivale a lo que Freire denominaba una “educación bancaria” digital: las máquinas depositan respuestas, y los sujetos dejan de interrogar el mundo.

Sin embargo, la conceptualización de la sociedad artificial no debe entenderse únicamente en clave distópica. Como sostienen Guerschberg y Gutiérrez (2025), este nuevo régimen también abre un campo fértil para la reflexión ética y política: reconocer la artificialidad como condición contemporánea del conocimiento puede permitir su reapropiación crítica. La tarea no consiste en negar la inteligencia artificial, sino en disputarle su sentido.

Desde esta perspectiva, la educación —y en particular la alfabetización algorítmica (Aparici, Bordignon & Martínez-Pérez, 2021)— se erige como espacio privilegiado para recuperar la agencia humana. Comprender cómo los algoritmos aprenden, deciden y representan la realidad se convierte en una forma de resistencia epistémica frente al automatismo.

Este recorrido histórico desde la sociedad del conocimiento hasta la sociedad artificial revela un desplazamiento fundamental: del conocimiento como práctica reflexiva al conocimiento como proceso automatizado; de la intersubjetividad como fuente del sentido a la correlación estadística como criterio de verdad; del pensamiento como acto humano a la inteligencia como infraestructura técnica. La mutación algorítmica no es sólo una etapa de la modernidad digital, sino la expresión más profunda de una transformación civilizatoria que redefine qué significa, en el siglo XXI, saber.

3.- De la alfabetización informacional a la alfabetización algorítmica: un giro freireano necesario

La irrupción de la inteligencia artificial generativa (IAG) ha reconfigurado el vínculo entre conocimiento, sujeto y tecnología, desplazando el eje de la alfabetización digital hacia una nueva exigencia: comprender los algoritmos que median, interpretan y producen el mundo. En la sociedad artificial —como han definido Guerschberg y Gutiérrez (2025)—, el conocimiento deja de ser una práctica dialógica para convertirse en una simulación automática del sentido. En este contexto, la educación se enfrenta a un desafío epistemológico y político sin precedentes: formar sujetos capaces de resistir la automatización del pensamiento y reapropiarse críticamente de las tecnologías que configuran su experiencia.

Durante las primeras décadas de la expansión de internet, la noción de alfabetización digital se asoció con la adquisición de competencias instrumentales para el uso de herramientas tecnológicas. Saber operar un software, navegar por la web o gestionar datos eran habilidades suficientes para insertarse en la llamada sociedad de la información. Sin embargo, esta concepción funcional pronto demostró su insuficiencia: el acceso técnico no garantiza la comprensión crítica de los procesos de poder que atraviesan la producción y circulación del conocimiento digital (Fuchs, 2017).

Christian Fuchs, en su lectura marxista de las redes sociales, advierte que la cultura digital reproduce relaciones de dominación simbólica y económica bajo una apariencia participativa. Las plataformas, presentadas como espacios de libertad, funcionan en realidad como mecanismos de extracción de valor cognitivo y afectivo. En este sentido, la alfabetización digital debe ir más allá del uso técnico y orientarse hacia una lectura política del entorno mediático: quién controla la infraestructura, con qué intereses y bajo qué lógicas de visibilidad.

La emergencia de la alfabetización crítica significó, entonces, un paso necesario hacia la comprensión de la tecnología como campo de disputa. Inspirada en la pedagogía de Paulo Freire, esta perspectiva concibe el aprendizaje como praxis liberadora: un proceso en el que los sujetos no son receptores pasivos de información, sino protagonistas en la construcción de sentido. Freire (1970) planteaba que enseñar no consiste en llenar al estudiante de contenidos, sino en problematizar el mundo junto a él. Su célebre crítica a la “educación bancaria” —esa que deposita saberes sin diálogo ni reflexión— adquiere una vigencia renovada frente al uso masivo de la inteligencia artificial generativa, que tiende a ofrecer respuestas instantáneas en lugar de promover preguntas significativas.

La alfabetización algorítmica como pedagogía emancipadora

En este nuevo escenario, Aparici, Bordignon y Martínez-Pérez (2021) proponen el concepto de alfabetización algorítmica como una evolución de la alfabetización digital crítica. No se trata solo de enseñar a usar o cuestionar las herramientas tecnológicas, sino de comprender el modo en que los algoritmos producen realidad. Los autores, retomando el pensamiento freireano, sostienen que “leer el mundo” hoy implica también leer el algoritmo. Comprender su lenguaje, sus sesgos, sus lógicas de clasificación y predicción, es condición necesaria para ejercer la ciudadanía digital en un entorno dominado por la automatización del conocimiento.

La alfabetización algorítmica, en consecuencia, no es un conjunto de competencias técnicas, sino una praxis reflexiva orientada a la autonomía cognitiva. Requiere interrogar las estructuras invisibles que determinan qué vemos, qué aprendemos y cómo pensamos. Esta pedagogía algorítmica, inspirada en Freire, no busca adaptarse al sistema tecnológico, sino transformarlo desde la conciencia crítica. Como afirma Aparici et al. (2021), la educación debe “desautomatizar la mirada”, devolver al sujeto la capacidad de problematizar la información y resistir la pasividad impuesta por los entornos inteligentes.

El giro freireano resulta fundamental en este punto. Freire enseñaba que el acto de preguntar constituye el núcleo del aprendizaje emancipador. Preguntar es ejercer poder epistemológico, es reclamar el derecho a construir conocimiento. En la sociedad artificial, donde la IA se presenta como oráculo de respuestas, la educación freireana se convierte en un acto de resistencia: reaprender a preguntar frente a la hegemonía de la respuesta automática.

El riesgo de la educación automatizada

Byung-Chul Han (2022), en Infocracia, advierte que la digitalización ha producido una mutación política y cognitiva: el exceso de información no amplía el saber, sino que lo disuelve en ruido. En la infocracia, la saturación de datos genera una ilusión de transparencia que reemplaza la reflexión por la exposición. Han señala que la lógica de la inmediatez, impulsada por los algoritmos, impide la formación de una conciencia histórica y crítica: el sujeto conectado vive en el presente perpetuo del flujo informacional.

La educación, bajo este régimen, corre el riesgo de transformarse en un dispositivo de entrenamiento automático. Los sistemas de IA, al ofrecer soluciones inmediatas y textos coherentes, eliminan la experiencia del esfuerzo cognitivo. El pensamiento se vuelve derivativo; el estudiante ya no interpreta, sino que selecciona. En términos freireanos, el acto de conocer —como praxis de libertad— es reemplazado por el consumo de conocimiento empaquetado.

Kate Crawford (2021) complementa esta crítica desde una perspectiva material y política. En Atlas of AI, demuestra que la inteligencia artificial no es una entidad abstracta, sino una infraestructura extractiva que consume recursos naturales, trabajo humano y datos personales. Detrás de cada algoritmo hay una geopolítica de la información, donde los centros de poder concentran la capacidad de procesar y decidir. Desde esta óptica, la alfabetización algorítmica también es una pedagogía ecológica y de justicia social: formar conciencia sobre los costos planetarios, laborales y epistemológicos de la inteligencia artificial.

La paradoja del Preguntados, que da nombre a este ensayo, se reitera aquí con nitidez. Así como el juego se degradó cuando la calidad de las preguntas se subordinó a la cantidad y a la improvisación de los usuarios, la educación corre el mismo riesgo cuando reemplaza la reflexión por la eficiencia tecnológica. Una pedagogía automatizada, que delega la curiosidad en los algoritmos, reproduce los mismos vicios que vaciaron de sentido el aprendizaje lúdico: respuestas rápidas, distractores triviales, pensamiento débil. La IA no destruye el pensamiento crítico por sí misma; lo hace cuando se la usa sin criterio, cuando se la alimenta con preguntas pobres y se la idolatra como fuente de verdad.

Guerschberg y Gutiérrez (2025) sostienen que la sociedad artificial inaugura un nuevo régimen del vínculo cognitivo, donde la mediación humana es reemplazada por la mediación algorítmica. En este entorno, la alfabetización algorítmica se vuelve una condición de supervivencia epistemológica. Comprender el funcionamiento de la IA implica desnaturalizar su autoridad, devolverle su carácter de construcción humana y, por tanto, política.

La tarea educativa consiste en reconstruir el lazo entre sujeto y conocimiento, ahora mediado por inteligencias no humanas. Esto requiere una pedagogía que no solo enseñe qué hace la IA, sino por qué lo hace, a quién sirve y qué deja fuera. La alfabetización algorítmica, en este sentido, se alinea con la propuesta freireana de “concientización”: un proceso de desvelamiento crítico que permite transformar la realidad en lugar de aceptarla como destino.

Esta pedagogía crítica del algoritmo debe sostener tres dimensiones complementarias:

1.     Cognitiva, para comprender los procesos de aprendizaje automático y detección de patrones.

2.     Ética, para evaluar los impactos de las decisiones algorítmicas sobre la equidad y la justicia.

3.     Política, para disputar la gobernanza de la inteligencia artificial y promover la soberanía digital.

El objetivo no es alfabetizar a los ciudadanos para que sean usuarios más competentes, sino para que sean actores conscientes en la definición del futuro tecnológico. En palabras de Freire, la educación auténtica es aquella que enseña a “leer y reescribir el mundo”. Hoy, ese mundo está escrito en código.

Hacia una pedagogía del preguntar en la era algorítmica

La alfabetización algorítmica implica, en última instancia, restaurar el valor de la pregunta como acto fundante del conocimiento. En la sociedad artificial, preguntar es resistir la pasividad de la automatización; es recuperar la curiosidad como fuerza política. Freire sostenía que la educación emancipadora nace del diálogo auténtico entre sujetos, no de la transmisión unilateral de respuestas. Esa premisa adquiere nueva relevancia frente a los modelos generativos: el diálogo humano, con su imprevisibilidad, ambigüedad y afecto, sigue siendo el único espacio donde el sentido puede reconstruirse colectivamente.

El desafío contemporáneo consiste, entonces, en articular una pedagogía que combine la potencia cognitiva de la inteligencia artificial con la profundidad ética de la educación crítica. No se trata de oponer lo humano a lo artificial, sino de integrar ambos planos en una relación de co-agencia consciente. Como advierte Han (2022), solo una cultura que recupere la lentitud, la reflexión y el silencio podrá resistir la saturación informativa de la infocracia.

La educación del siglo XXI debe formar sujetos capaces de preguntar, discernir y crear junto a las máquinas, no a través de ellas. La alfabetización algorítmica, en tanto praxis freireana, es la condición para recuperar la autonomía en la sociedad artificial: una sociedad donde el conocimiento corre el riesgo de volverse automático, y donde cada pregunta humana es, más que nunca, un acto de emancipación.

4.- La paradoja del Preguntados: del juego colaborativo al simulacro del saber

Entre las metáforas más elocuentes para comprender la crisis cognitiva contemporánea, pocas resultan tan reveladoras como la que ofrece el caso del célebre juego Preguntados. Nacido como una propuesta lúdico-educativa que incentivaba el aprendizaje mediante la formulación de preguntas, el juego se convirtió rápidamente en un fenómeno global. Su estructura sencilla —una competencia de preguntas y respuestas de cultura general— promovía el desafío intelectual, la memoria y el intercambio de saberes. Sin embargo, su evolución posterior representa una advertencia sobre la degradación del conocimiento cuando la apertura participativa carece de criterios epistemológicos.

Al agotarse el repertorio original de preguntas, los desarrolladores decidieron permitir que los usuarios subieran sus propios ítems al juego. Lo que al principio parecía un gesto democratizador —abrir el conocimiento al aporte colectivo— derivó en una profunda decadencia de la experiencia. Las nuevas preguntas, mal redactadas o erróneas, con distractores pobres o respuestas ambiguas, desvirtuaron el propósito inicial. El Preguntados dejó de ser un espacio de aprendizaje para transformarse en un simulacro de saber: un sistema donde la cantidad reemplazó a la calidad y donde la validación colectiva se redujo a la repetición acrítica.

Una metáfora adicional, igualmente significativa, puede encontrarse en el programa televisivo 100 Argentinos dicen. En este formato, no importa si la respuesta es correcta o incorrecta desde un punto de vista factual: lo relevante es coincidir con lo que “la mayoría” respondió. Así, si cuarenta personas sostienen que una de las franjas de la bandera italiana es azul, la respuesta “correcta” será azul, no porque lo sea, sino porque representa el consenso estadístico. Este mecanismo, aparentemente inofensivo y lúdico, revela un proceso de banalización del conocimiento donde la verdad se subordina al promedio y la validez se confunde con la popularidad. En términos epistemológicos, se trata de una pedagogía de la confluencia y no de la verificación: se aprende mal, pero colectivamente. Esta misma lógica impregna las dinámicas actuales de la inteligencia artificial generativa, cuyos modelos aprenden no de la verdad, sino de la frecuencia: lo que más se repite se transforma en lo más probable, y lo más probable acaba pareciendo verdadero.

Esta paradoja del Preguntados condensa el dilema que enfrenta hoy la inteligencia artificial generativa (IAG): sistemas que aprenden del comportamiento humano, pero que se degradan cuando la calidad del insumo —las preguntas, los datos, las interacciones— se empobrece. La IA, como el juego, depende del juicio humano para construir conocimiento significativo. Cuando ese juicio se diluye en la superficialidad, la máquina no sólo replica el error: lo amplifica y lo institucionaliza.

Del conocimiento colaborativo a la reproducción automática

La historia del Preguntados es, en cierto modo, la parábola de la sociedad artificial. En su fase inicial, el juego simbolizaba el ideal de la sociedad del conocimiento (Stehr, 2012): la cooperación entre individuos, el acceso democrático al saber y la validación colectiva del aprendizaje. Pero al abrir su base de datos a una producción sin mediación crítica, el sistema se contaminó con errores que erosionaron su credibilidad. El aprendizaje dejó de ser un proceso de construcción común para transformarse en un ejercicio de reiteración vacía.

Algo similar ocurre hoy en la cultura digital dominada por la IAG. Los modelos generativos —como GPT o DALL·E— aprenden de enormes corpus de datos producidos por los propios usuarios de la red. Esa aparente circularidad democrática se convierte, sin embargo, en una trampa epistémica: cuanto más masivo y superficial es el contenido, más se degrada la base de conocimiento de la que la máquina se alimenta. Los sistemas generativos terminan reproduciendo los mismos errores, sesgos y distorsiones que caracterizan a la producción humana en contextos de sobreinformación.

Como advierte Ferrara (2023), los modelos de lenguaje de gran escala no son sistemas neutrales, sino ecosistemas sociotécnicos donde la calidad del aprendizaje depende directamente de la calidad de los datos. En Social bot detection in the age of ChatGPT, el autor muestra cómo la proliferación de bots generativos ha transformado las redes sociales en entornos híbridos, donde lo humano y lo sintético se confunden hasta volverse indistinguibles. En la medida en que las IAG se entrenan con información generada por otras IAG, se produce un bucle autorreferencial: la máquina aprende de sí misma, replicando errores con apariencia de coherencia.

Ferrara (2024) lleva esta idea más lejos en GenAI against humanity, donde sostiene que la IA generativa inaugura una nueva ecología de la desinformación. La generación masiva de textos, imágenes y discursos verosímiles —pero fabricados sin comprensión semántica— consolida un régimen de simulación en el que la verdad se convierte en una cuestión de probabilidad. Este fenómeno, según el autor, constituye una amenaza epistémica de gran escala: la automatización del sentido.

La paradoja del Preguntados, en este contexto, deja de ser una anécdota de diseño lúdico para convertirse en una metáfora estructural de nuestra cultura digital. El juego fue degradado por la mala formulación de preguntas; la IA lo es por la mala formulación del pensamiento. En ambos casos, el problema no radica en la tecnología, sino en el uso. La democratización sin alfabetización crítica produce caos, y el caos, cuando se automatiza, deviene sistema.

La sociedad artificial, según Guerschberg y Gutiérrez (2025), se caracteriza por la externalización de la inteligencia y la automatización del sentido: los algoritmos no sólo median la información, sino que generan las condiciones mismas de posibilidad del conocimiento. En este nuevo orden, el saber deja de ser producto de la reflexión para convertirse en el resultado estadístico de millones de correlaciones automáticas.

Bowers y Zittrain (2020), en su estudio sobre content governance in an age of disinformation, denominan a esta situación una “gobernanza imposible”: los mecanismos tradicionales de regulación —jurídicos, éticos o institucionales— resultan ineficaces frente a la velocidad y la escala de los sistemas automatizados. Las plataformas no sólo albergan contenido, sino que lo producen, lo recomiendan y lo transforman. La distinción entre moderación y generación se difumina.

Este escenario reactualiza la metáfora del Preguntados. Así como los desarrolladores perdieron el control sobre las preguntas cargadas por los usuarios, los diseñadores de IA están perdiendo el control sobre los procesos de generación automatizada de contenido. Los modelos se reentrenan con su propia producción, generando un efecto de “autocontaminación” cognitiva. Lo que se presenta como autonomía técnica es, en realidad, un circuito cerrado donde la validación humana ha sido desplazada por la retroalimentación algorítmica. 

La consecuencia es la consolidación de lo que Han (2022) denomina infocracia: un régimen de saturación informativa donde la abundancia de datos impide la formación de sentido. En la infocracia, sostiene Han, el exceso de comunicación reemplaza la reflexión; la transparencia total sustituye al pensamiento crítico. En lugar de un ciudadano informado, emerge un usuario exhausto, atrapado en la inmediatez de la información y la obsolescencia del conocimiento. El sujeto deja de interpretar el mundo para reaccionar a él, condicionado por flujos de datos que lo exceden.

Este fenómeno, como advierte Neil Selwyn (2022), no se limita al terreno tecnológico, sino que atraviesa el propio campo educativo. La fascinación por la inteligencia artificial en la enseñanza suele venir acompañada de una retórica de inevitabilidad y eficiencia que oculta sus dimensiones ideológicas, sociales y ambientales. Selwyn señala que la IA educativa opera en contextos de “hipérbole, limitaciones, daños, ideología y costes ecológicos”, y que su incorporación acrítica puede reproducir la misma lógica de banalización que afecta a los entornos digitales de consumo masivo. En este sentido, la automatización del conocimiento escolar y universitario corre el riesgo de convertirse en una nueva versión del Preguntados: un aprendizaje que premia la velocidad sobre la comprensión y la coincidencia sobre la verdad.

La infocracia se alimenta, como el Preguntados en su decadencia, de la pérdida de criterio. Las preguntas ya no se formulan para aprender, sino para confirmar lo que el sistema espera. En lugar de curiosidad, hay algoritmos que predicen. En lugar de diálogo, hay correlaciones. Así, la sociedad artificial no es sólo una evolución tecnológica: es la institucionalización del simulacro, la normalización del error como forma de verdad.

El empobrecimiento cognitivo asociado a la paradoja del Preguntados también puede entenderse como consecuencia de la economía de la atención. En un entorno donde la información compite por segundos de visibilidad, la pertinencia epistemológica se subordina a la rentabilidad algorítmica. Como señala Pariser (2011) en The Filter Bubble, los sistemas de personalización crean burbujas informativas que refuerzan las creencias existentes y reducen la exposición a perspectivas divergentes. Lo que debería ser un espacio de encuentro se convierte en una cámara de eco que amplifica el pensamiento homogéneo.

Las inteligencias artificiales generativas, al operar sobre los mismos principios, reproducen esta fragmentación. Su entrenamiento consiste en predecir la palabra más probable, no en evaluar la más significativa. Por eso, aun cuando generan textos plausibles, tienden a reforzar lo ya dicho, a consolidar los sesgos y a debilitar la originalidad. En este sentido, el conocimiento se convierte en consumo cognitivo, un flujo continuo de información estandarizada que simula aprendizaje sin producir comprensión.

Esta dinámica no es ajena al ámbito educativo. Muchos docentes y estudiantes, seducidos por la eficiencia de las respuestas automatizadas, recurren a la IA para reemplazar procesos de investigación o reflexión. Sin embargo, esta delegación cognitiva amenaza con erosionar el sentido mismo del aprendizaje: el conocimiento deja de ser experiencia para transformarse en dato. La educación basada en prompts —como la edición degradada del Preguntados— corre el riesgo de formar usuarios hábiles pero pensadores frágiles.

Del algoritmo como herramienta al algoritmo como autoridad

El paso decisivo hacia la sociedad artificial ocurre cuando el algoritmo deja de ser una herramienta y se convierte en autoridad epistemológica. Guerschberg y Gutiérrez (2025) advierten que esta delegación de la agencia cognitiva constituye el rasgo definitorio de la modernidad digital. Las máquinas no solo procesan el conocimiento: lo legitiman. El usuario, ante la precisión sintáctica de las respuestas generadas, confunde coherencia con verdad y verosimilitud con comprensión.

La paradoja del Preguntados vuelve aquí con fuerza simbólica: el juego perdió sentido cuando los usuarios confundieron participación con conocimiento, y la IA corre el mismo destino cuando confundimos automatización con inteligencia. En ambos casos, la pregunta pierde su poder epistemológico y se convierte en simple estímulo para una respuesta predecible.

Esta crisis del preguntar afecta directamente la educación. Una generación que aprende a obtener respuestas instantáneas corre el riesgo de olvidar cómo se formula una pregunta significativa. El pensamiento crítico, que requiere tiempo, error y diálogo, se ve desplazado por el pragmatismo del clic. En la sociedad artificial, la curiosidad —motor del conocimiento— se convierte en un residuo anacrónico.

El simulacro de lo humano

La automatización del discurso, analizada por Ferrara (2024) y Han (2022), ha inaugurado una nueva forma de antropomorfismo tecnológico: el simulacro de lo humano. Los sistemas generativos producen textos con tonalidades afectivas, respuestas empáticas y argumentos coherentes, pero carentes de experiencia. Son máquinas de sentido sin sentido. En este simulacro, el sujeto se refleja en su doble artificial y confunde el eco con la voz.

El Preguntados degradado —lleno de preguntas erróneas formuladas por usuarios desatentos— simboliza esta pérdida de autenticidad. En ambos casos, lo humano desaparece no por imposición tecnológica, sino por abandono del cuidado epistemológico. El problema no es que las máquinas piensen, sino que los humanos dejen de hacerlo.

La paradoja del Preguntados, por tanto, no es solo una advertencia lúdica: es un diagnóstico civilizatorio. Representa el tránsito del conocimiento colaborativo al conocimiento automatizado; del preguntar genuino a la simulación del saber; de la educación como diálogo a la educación como algoritmo. Si la sociedad del conocimiento soñaba con la emancipación a través del saber, la sociedad artificial nos enfrenta a una nueva tarea: reaprender a preguntar, no a la máquina, sino a nosotros mismos.

5.- Entre la autonomía y la automatización: desafíos pedagógicos y éticos de la IA

El advenimiento de la inteligencia artificial generativa (IAG) ha abierto una grieta profunda entre dos horizontes del pensamiento contemporáneo: el de la autonomía y el de la automatización. En la sociedad artificial —tal como la caracterizan Guerschberg y Gutiérrez (2025)— el conocimiento ya no es un proceso de interpretación humana, sino un producto emergente de infraestructuras automatizadas. Este desplazamiento, que en apariencia promete eficiencia, plantea un dilema ético y pedagógico fundamental: ¿cómo educar para la autonomía crítica en un entorno donde las decisiones cognitivas son cada vez más tomadas por sistemas no humanos?

La crisis del sujeto cognoscente

Luciano Floridi (2020), en The Logic of Information, define la era contemporánea como la de la infosfera, un entorno híbrido en el que las fronteras entre lo humano, lo técnico y lo informacional se vuelven porosas. En esta ecología informacional, la inteligencia deja de ser un atributo exclusivo del sujeto racional y se distribuye en sistemas de información que actúan, aprenden y deciden. Sin embargo, esta ampliación de la inteligencia plantea una paradoja: cuanto más inteligente es la infraestructura, menos inteligible se vuelve para los humanos.

Floridi advierte que la delegación de funciones cognitivas a los algoritmos conduce a una pérdida progresiva de autonomía semántica. En la medida en que dejamos de interpretar y comenzamos a aceptar respuestas automatizadas, el pensamiento se desvincula del juicio. Saber ya no implica comprender, sino elegir la opción que el sistema presenta como más probable. Esta erosión del sujeto cognoscente produce un desplazamiento epistemológico de gran magnitud: la verdad deja de ser el resultado de una búsqueda racional para convertirse en una variable estadística de ajuste.

Matteo Pasquinelli (2023) profundiza esta idea al describir la inteligencia artificial como “el ojo del maestro”, una mirada que observa, clasifica y produce conocimiento a partir de los datos humanos. Pero ese “ojo” no enseña a ver: contabiliza. El algoritmo no pregunta por el sentido; calcula correlaciones. Así, la IA ocupa el lugar del maestro —o del evaluador— sin asumir la dimensión ética del acompañamiento humano. Lo que queda es un aprendizaje sin pedagogía: un proceso de replicación y optimización que excluye la reflexión.

Desde esta perspectiva, la sociedad artificial no sólo externaliza la inteligencia, sino que también externaliza la responsabilidad. Si el conocimiento se genera automáticamente, ¿quién responde por sus consecuencias? ¿Quién asume la responsabilidad del error, del sesgo o del daño que producen las decisiones automatizadas? Este vacío de responsabilidad —una “ética delegada” al cálculo— constituye uno de los problemas más urgentes del siglo XXI.

Kate Crawford (2021), en Atlas of AI, desmonta la ilusión de neutralidad que rodea a la inteligencia artificial. Su investigación muestra que cada algoritmo es, en realidad, una condensación de poder político, económico y material. Detrás de la aparente inmaterialidad del código se ocultan enormes costos ecológicos —consumo energético, extracción de minerales— y laborales —trabajo invisible de etiquetadores, programadores precarizados, moderadores de contenido—. La IA, lejos de ser una inteligencia “etérea”, es una infraestructura de extracción planetaria.

Desde esta mirada, la automatización no sólo externaliza la cognición, sino también la explotación. La sociedad artificial es, simultáneamente, una sociedad del conocimiento y del desgaste. El capital informacional, como advierte Crawford, se alimenta de los cuerpos, los territorios y los datos de millones de personas que nunca son reconocidas como parte del proceso cognitivo. Esta asimetría plantea un desafío ético para la educación: ¿cómo formar conciencia crítica sobre un sistema que, mientras promete democratizar el saber, reproduce la desigualdad global?

El campo pedagógico no puede permanecer ajeno a esta contradicción. Una alfabetización algorítmica emancipadora —como la que proponen Aparici, Bordignon y Martínez-Pérez (2021)— debe incluir una reflexión ecológica y laboral sobre la IA: enseñar de dónde proviene, qué costos implica y a quién beneficia. El conocimiento tecnológico, despojado de su dimensión ética, se convierte en mera técnica de reproducción del poder.

Rosi Braidotti (2022), desde el posthumanismo crítico, ofrece una vía alternativa para pensar la relación entre autonomía y automatización. En Posthuman Feminism, sostiene que la expansión de las inteligencias no humanas no debe entenderse necesariamente como una amenaza, sino como una oportunidad para repensar la subjetividad en términos de co-agencia. El problema no radica en que las máquinas piensen, sino en que los humanos abandonen el pensamiento.

Para Braidotti, el posthumanismo no implica negar la especificidad humana, sino ampliar la noción de inteligencia para incluir redes de interacción entre humanos, máquinas, animales y ecosistemas. En este marco, la educación adquiere una nueva responsabilidad: enseñar a coexistir y colaborar con inteligencias no humanas sin perder el sentido ético del conocimiento. La co-agencia posthumanista puede ser, entonces, un antídoto frente a la automatización total: un reconocimiento de la interdependencia entre lo humano y lo artificial, pero desde una perspectiva relacional y crítica.

Esta lectura coincide con la propuesta de Guerschberg y Gutierrez (2025), quienes conciben la sociedad artificial no sólo como un régimen de alienación, sino como un campo de disputa epistemológica. La artificialidad, afirman, no debe ser comprendida como sinónimo de falsedad, sino como un modo de producción simbólica que puede ser reorientado hacia fines emancipadores. En otras palabras, el desafío no es destruir la inteligencia artificial, sino dotarla de sentido humano.

La pedagogía frente a la automatización del sentido

El gran riesgo de la era generativa es que la automatización del conocimiento conduzca a una pedagogía del atajo: una educación orientada al resultado inmediato, a la eficiencia y a la producción de contenido en lugar de a la comprensión. Este modelo, promovido por la lógica de la productividad algorítmica, amenaza con vaciar la experiencia educativa de su dimensión reflexiva y ética.

Floridi (2020) advierte que la filosofía —y, por extensión, la educación— debe convertirse en una práctica de diseño conceptual capaz de dar forma a las tecnologías en lugar de ser moldeada por ellas. Enseñar con IA no debería significar automatizar la enseñanza, sino diseñar entornos donde el diálogo entre inteligencias sea posible. La tarea docente consiste en mediar entre la potencia del algoritmo y la vulnerabilidad humana, entre la rapidez del cálculo y la lentitud del pensamiento.

Desde esta óptica, la educación no puede reducirse a la transmisión de información asistida por IA. Debe convertirse en un espacio de crítica, interpretación y creación colectiva de sentido. La alfabetización algorítmica es solo el punto de partida: lo que se necesita es una pedagogía del preguntar que recupere el valor de la duda, la deliberación y el error. En un mundo donde la máquina parece saberlo todo, el acto de preguntar se vuelve profundamente subversivo.

La soberanía cognitiva se traduce en ética del cuidado

La discusión sobre la autonomía frente a la automatización no es puramente técnica ni filosófica: es una cuestión de cuidado. Cuidar del conocimiento significa garantizar que los procesos de aprendizaje no sean colonizados por la lógica del rendimiento y la eficiencia. En la sociedad artificial, el cuidado se traduce en soberanía cognitiva: la capacidad de decidir qué aprendemos, cómo lo aprendemos y con qué fines.

Braidotti (2022) propone una ética afirmativa del cuidado, basada en la responsabilidad compartida entre humanos y no humanos. Esta ética, aplicada a la educación, implica reconocer que la inteligencia artificial no puede reemplazar la dimensión afectiva y política del acto de enseñar. La enseñanza no consiste solo en transmitir datos, sino en acompañar procesos de sentido, en sostener la incertidumbre y la pregunta.

El desafío ético contemporáneo radica, entonces, en evitar que la automatización del aprendizaje derive en una automatización del pensamiento. El riesgo no es solo perder la capacidad de razonar, sino también la de sentir y vincularnos. La pedagogía crítica —heredera de Freire— tiene aquí un papel decisivo: recordar que toda educación es un acto político y que toda tecnología, por avanzada que sea, expresa una ideología.

Hacia una ecología del conocimiento en la sociedad artificial

La educación del futuro no podrá eludir la presencia de la inteligencia artificial, pero puede —y debe— definir su sentido. Frente a la automatización del juicio, es necesario construir una ecología del conocimiento donde convivan distintas formas de inteligencia bajo principios éticos de equidad, transparencia y justicia cognitiva.

Esta ecología implica comprender que la IA no es un destino, sino un instrumento; no una sustituta del pensamiento, sino su desafío más complejo. Como sostiene Guerschberg y Gutierrez (2025), la sociedad artificial puede ser también un espacio de emancipación si se logra transformar la mediación algorítmica en mediación crítica. La educación, al formar sujetos capaces de interpretar y disputar los códigos que gobiernan su mundo, se convierte en el terreno privilegiado de esa transformación.

En última instancia, la disyuntiva entre autonomía y automatización no se resolverá en el terreno técnico, sino en el educativo. La inteligencia artificial podrá generar millones de respuestas, pero sólo la educación humana puede enseñar a formular buenas preguntas. Esa es la frontera ética de nuestra época: decidir si la inteligencia será un medio para la emancipación o un instrumento de la servidumbre.

6.- Conclusión: Reaprender a preguntar en la era de las respuestas automáticas

El recorrido trazado a lo largo de este ensayo permite delinear una paradoja inquietante: en el momento histórico en que la humanidad ha alcanzado su mayor capacidad de acceso, procesamiento y generación de información, el acto de conocer parece haberse debilitado. La inteligencia artificial generativa (IAG) —emblema de la sociedad artificial— ha puesto en crisis las nociones de autoría, de verdad y de aprendizaje que sostenían la tradición humanista del conocimiento. Pero más allá de sus implicancias técnicas o instrumentales, la revolución de la IA nos obliga a revisar un aspecto esencial del vínculo entre educación y saber: el estatuto de la pregunta.

Preguntar, en la historia del pensamiento, ha sido siempre el gesto fundante del conocimiento. Desde la mayéutica socrática hasta la pedagogía crítica de Paulo Freire, la pregunta constituye el punto de partida del diálogo, de la reflexión y de la transformación. La pregunta revela una carencia, pero también un deseo; es el signo de que el conocimiento no está cerrado. Sin embargo, en la cultura contemporánea dominada por la automatización, ese gesto ha sido desplazado. Las respuestas abundan, las preguntas escasean. Los sistemas generativos, entrenados para ofrecer soluciones instantáneas, han convertido la curiosidad en un residuo del pasado.

El silencio de las preguntas

En la sociedad artificial, como sostienen Guerschberg y Gutiérrez (2025), la mediación algorítmica reconfigura el vínculo cognitivo entre sujetos y conocimiento. Ya no se trata de buscar, sino de recibir; no de explorar, sino de predecir. El conocimiento se automatiza, y con ello se silencia la pregunta. Este fenómeno tiene implicaciones profundas en la educación: cuando el estudiante se acostumbra a recibir respuestas sin esfuerzo interpretativo, el aprendizaje se convierte en consumo. La curiosidad —esa energía que moviliza el pensamiento— se diluye en la comodidad de la inmediatez.

Vania Baldi (2017) había anticipado esta tendencia al describir la transición hacia una sociedad algorítmica y automatizada, en la que el conocimiento se subordina a la eficiencia técnica y el sujeto queda atrapado en una racionalidad instrumental. En la sociedad artificial, ese proceso se radicaliza: el algoritmo no sólo filtra la realidad, sino que la produce. Los límites entre lo verdadero y lo verosímil, entre lo humano y lo sintético, se desdibujan en una superficie de coherencias estadísticamente plausibles. En consecuencia, el problema educativo deja de ser la falta de acceso a la información y pasa a ser la incapacidad de discernir entre lo significativo y lo redundante.

Byung-Chul Han (2022) advierte que esta saturación informativa genera un sujeto exhausto, hiperconectado pero desprovisto de profundidad. La infocracia sustituye el diálogo por la exposición, la crítica por el clic. En este entorno, la educación se enfrenta a una tarea casi contracultural: enseñar a detenerse, a reflexionar, a formular preguntas en un tiempo que ha olvidado el valor de la lentitud.

La paradoja del saber sin comprensión

En este punto, la metáfora del Preguntados deja de ser una anécdota lúdica para convertirse en una advertencia epistémica. No se trata ya del juego en sí, sino de lo que simboliza: la pérdida del criterio como base del conocimiento. En la sociedad artificial, la inteligencia humana corre el riesgo de reproducir el mismo error que degradó aquella experiencia colectiva: confundir participación con saber, consenso con verdad, rapidez con comprensión. Esta crisis del preguntar no sólo empobrece la educación, sino que redefine el sentido mismo del aprendizaje. Reaprender a preguntar, por tanto, implica reconstruir la relación entre curiosidad, juicio y verdad en un entorno dominado por la respuesta automática. En el juego, como en la IA, el saber se degrada cuando la pregunta deja de tener sentido epistemológico y se transforma en un mecanismo de respuesta rápida. Y en ambos casos, la participación masiva, lejos de democratizar el conocimiento, termina banalizándolo: se aprende mal, pero colectivamente.

Kate Crawford (2021) nos recuerda que detrás de la inteligencia artificial no hay magia, sino estructuras materiales y sociales profundamente humanas. Las máquinas aprenden de nosotros, y por tanto reproducen nuestras virtudes y nuestros defectos. Cuando el pensamiento humano se vuelve superficial, las máquinas aprenden superficialidad; cuando el aprendizaje se desvincula de la ética, los algoritmos aprenden indiferencia. En este espejo imperfecto, la humanidad corre el riesgo de entrenar a su doble artificial para replicar su propia decadencia cognitiva.

Pero no todo en esta transición es pérdida. El reconocimiento de la artificialidad del conocimiento puede también habilitar nuevas formas de autoconciencia. La sociedad artificial, al exponer el carácter mediado y construido de toda forma de saber, nos ofrece la posibilidad de comprender que la inteligencia nunca fue natural, sino cultural. Lo que cambia ahora es la escala y la velocidad de esa mediación. Por eso, como afirma Floridi (2020), el desafío del presente no consiste en preservar la pureza del pensamiento humano, sino en diseñar ecosistemas informacionales donde la inteligencia —humana y no humana— pueda operar bajo principios de transparencia, equidad y responsabilidad.

Educar para la autonomía en tiempos de automatización

Frente a la expansión de la IAG, la educación se convierte en el espacio privilegiado para resistir la automatización del sentido. No se trata de negar la tecnología, sino de domesticarla epistemológicamente: someterla al juicio ético, al diálogo crítico y a la creatividad humana. Como sostienen Aparici, Bordignon y Martínez-Pérez (2021), la alfabetización algorítmica basada en el pensamiento freireano debe enseñarnos no sólo a usar los algoritmos, sino a interrogarlos, a entender cómo piensan, a qué intereses responden y qué mundos invisibilizan.

En la educación superior, este desafío adquiere especial relevancia. Formar profesionales competentes en el uso de IA no basta; es necesario formar sujetos conscientes de su relación con la inteligencia artificial. Es decir, individuos capaces de ejercer autonomía cognitiva, de reconocer la diferencia entre la respuesta correcta y la respuesta más frecuente, entre el consenso estadístico y la verdad significativa.

La tarea educativa debe recuperar la dimensión ética del conocimiento: enseñar que toda respuesta encierra una responsabilidad y que toda pregunta implica una posición en el mundo. Freire (1970) afirmaba que “nadie educa a nadie, nadie se educa solo: los hombres se educan entre sí, mediatizados por el mundo”. En la sociedad artificial, ese mundo es digital, y la mediación incluye inteligencias no humanas. Pero el principio permanece: la educación es siempre un acto de humanización.

Reapropiarse del preguntar

Reaprender a preguntar es, en este contexto, un gesto político. Es reclamar la soberanía sobre la curiosidad, sobre la duda, sobre la necesidad de comprender. En la sociedad artificial, donde los algoritmos predicen nuestros intereses y anticipan nuestras respuestas, preguntar se convierte en un acto de resistencia epistemológica.

Esta reapropiación del preguntar exige una pedagogía que combine tres dimensiones complementarias:

1.     Crítica, para comprender los mecanismos técnicos que producen conocimiento automatizado.

2.     Creativa, para reinventar las formas de diálogo entre humanos y máquinas.

3.     Ética, para garantizar que la inteligencia —humana o artificial— esté orientada al bien común y no a la dominación.

Preguntar bien, en este sentido, es una forma de responsabilidad. La calidad de nuestras preguntas determinará la calidad del aprendizaje de las máquinas y, en última instancia, la calidad de nuestra propia inteligencia colectiva. Así como Preguntados se degradó cuando sus usuarios perdieron el rigor de la pregunta, la IA se degrada cuando los humanos la utilizan sin pensamiento crítico.

Hacia una ética de la curiosidad

La pregunta no es sólo una herramienta cognitiva: es una forma de ética. Preguntar implica reconocer la incompletud, la apertura, el deseo de aprender. En un tiempo en que la certeza se produce a escala industrial, la curiosidad se convierte en el último refugio de la autonomía. La ética de la curiosidad es, por tanto, la nueva pedagogía del siglo XXI: una ética que invita a convivir con la incertidumbre, a valorar la complejidad y a resistir la simplificación algorítmica del mundo.

El desafío no consiste en oponerse a la inteligencia artificial, sino en evitar que ella nos expropie el derecho a preguntar. Como advierte Ferrara (2024), el verdadero peligro de la IA no es que se vuelva más inteligente que nosotros, sino que nos convenza de dejar de pensar. En esa complacencia radica la tragedia cognitiva de nuestra era: la sustitución del pensamiento por la predicción.

Frente a ello, la educación tiene una tarea ineludible: restaurar el valor de la pregunta como acto de emancipación. Enseñar a preguntar no sólo a la máquina, sino también a la sociedad, a la política y a la propia conciencia. La sociedad artificial podrá automatizar la información, pero no puede automatizar el sentido. El sentido sigue siendo humano.

En última instancia, reaprender a preguntar es reaprender a ser humanos.

6.- Referencias

Aparici, R., Bordignon, A., & Martínez-Pérez, J. (2021). Alfabetización algorítmica basada en la metodología de Paulo Freire. Perfiles Educativos, 43(spe), 36–54. https://doi.org/10.22201/iisue.24486167e.2021.especial.61019

Baldi, V. (2017). Más allá de la sociedad algorítmica y automatizada: Para una reapropiación crítica de la cultura digital. Observatorio (OBS*), 11(3), 186–198. https://doi.org/10.15847/obsobs11320171093

Barriga, A., Rodríguez, P., & Méndez, J. (2021). Psicología digital y percepción de la realidad en entornos virtuales. Journal of Digital Studies, 14(3), 78–95.

Bowers, J., & Zittrain, J. (2020). Answering impossible questions: Content governance in an age of disinformation. Harvard Kennedy School (HKS) Misinformation Review. https://doi.org/10.37016/mr-2020-005

Braidotti, R. (2022). Posthuman feminism. Polity Press. ISBN: 978-1-509-51807-4

Castells, M. (1996). La era de la información: economía, sociedad y cultura. Volumen 1: La sociedad red. Alianza Editorial.

Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press. https://doi.org/10.56315/PSCF3-22Crawford

Drucker, P. (1969). The age of discontinuity: Guidelines to our changing society. Harper & Row.

Ferrara, E. (2023). Social bot detection in the age of ChatGPT: Challenges and opportunities. First Monday, 28(6). https://doi.org/10.5210/fm.v28i6.13185

Ferrara, E. (2024). GenAI against humanity: Nefarious applications of generative AI and large-language models. Journal of Big Data, 11(1), 45. https://doi.org/10.1007/s42001-024-00250-1

Floridi, L. (2020). The logic of information: A theory of philosophy as conceptual design. Oxford University Press. https://doi.org/10.1093/oso/9780198833635.001.0001

Freire, P. (1970). Pedagogía del oprimido. Siglo XXI Editores.

Fuchs, C. (2017). Social media: A critical introduction (2nd ed.). SAGE Publications.

Guerschberg, L., & Gutierrez, Y. E. (2025). De la Sociedad del Conocimiento a la Sociedad Artificial: Mutaciones del Vínculo Digital en la Era Generativa. Ibero Ciencias - Revista Científica Y Académica - ISSN 3072-7197, 4(4), 1623-1644. https://doi.org/10.63371/ic.v4.n4.a452

Han, B.-C. (2022). Infocracia: Digitalización y crisis de la democracia. Herder Editorial.

Pariser, E. (2011). The filter bubble: What the Internet is hiding from you. Penguin Books.

Pasquinelli, M. (2023). The eye of the master: A social history of artificial intelligence. Verso Books.

Peeters, R., & Schuilenburg, M. (2023). Algorithmic governance: Technology, knowledge and power. In W. Housley, A. Edwards, R. Beneito-Montagut, & R. Fitzgerald (Eds.), Algorithmic governance: Technology, knowledge and power (pp. 439–457). SAGE Publications. https://doi.org/10.4135/9781529783193.n25

Selwyn, N. (2022). Disenchanted? A critical reflection on the future of artificial intelligence in education. European Journal of Education, 57(4), 542–555. https://doi.org/10.1111/ejed.12532

Stehr, N. (2012). Knowledge societies. Routledge.

Sunstein, C. R. (2017). #Republic: Divided democracy in the age of social media. Princeton University Press.

Van Dijk, J. (2006). The network society: Social aspects of new media (2nd ed.). SAGE Publications.

Vosoughi, S., Roy, D., & Aral, S. (2018). The spread of true and false news online. Science, 359(6380), 1146–1151. https://doi.org/10.1126/science.aap9559

Webster, F. (2014). Theories of the information society (4th ed.). Routledge.