El destino pedagógico de la
inteligencia artificial: La “paradoja del Preguntados”
Autor
Leandro Guerschberg
Universidad Nacional de
José C. Paz Provincia de Buenos Aires - Argentina Leandro.guerschberg@docentes.unpaz.edu.ar
https://orcid.org/0009-0005-9286-6358
DOI: 10.5281/zenodo.17873099
Resumen
El
artículo analiza críticamente la transformación del conocimiento en la era de
la inteligencia artificial generativa a partir de la metáfora de la “paradoja
del Preguntados”. El autor sostiene que el pasaje desde la sociedad del
conocimiento hacia una “sociedad artificial” implica una mutación
epistemológica en la que la inteligencia humana se externaliza en sistemas
algorítmicos que automatizan la producción de sentido. El texto argumenta que,
así como el juego Preguntados perdió valor al permitir que los usuarios
incorporaran preguntas mal formuladas, la IA generativa se degrada cuando el
pensamiento humano deja de formular interrogantes rigurosos, retroalimentando
un círculo de superficialidad cognitiva. En este marco, la alfabetización
informacional tradicional resulta insuficiente y es necesario avanzar hacia una
alfabetización algorítmica inspirada en la pedagogía crítica de Freire,
orientada a comprender, interrogar y desnaturalizar los procesos automatizados
de producción de conocimiento. El ensayo advierte que la IA generativa no sólo
produce respuestas sin comprensión, sino que también reconfigura la autoridad
epistémica, desplazando al sujeto como agente del saber. Finalmente, se plantea
que el desafío educativo contemporáneo consiste en recuperar el valor de la
pregunta como acto emancipador, resistiendo la automatización del pensamiento y
promoviendo una pedagogía que combine crítica, ética y creatividad en la era
algorítmica.
Palabras
clave: inteligencia artificial, alfabetización
algorítmica, sociedad artificial, pedagogía crítica.
This article offers a critical examination
of the epistemic transformations brought about by generative artificial
intelligence through the metaphor of the “Preguntados
paradox.” It argues that the shift from the knowledge society to an emerging
“artificial society” entails a profound reconfiguration of how knowledge is
produced, validated, and circulated, as human intelligence becomes increasingly
externalized in algorithmic systems. Much like the decline of the quiz game Preguntados—triggered by user-generated questions of poor
quality—generative AI deteriorates when human inquiry loses rigor, creating a
feedback loop of cognitive degradation. Within this context, traditional
digital literacy is deemed insufficient; instead, the article calls for an algorithmic
literacy grounded in Freirean critical pedagogy, enabling citizens to
interrogate and understand the power structures and biases embedded in
automated decision-making systems. The text highlights that generative AI does
not simply provide answers without understanding but also reshapes epistemic
authority by displacing humans as active subjects of knowledge. Ultimately, the
article posits that contemporary education must reclaim questioning as an
emancipatory act, resisting the automation of thought and fostering reflective,
ethical, and creative engagement with technologies that increasingly mediate
the construction of meaning.
Keywords: artificial intelligence, algorithmic
literacy, artificial society, critical pedagogy.
1.- Introducción
De la ilusión del conocimiento colectivo a la
paradoja del Preguntados
Desde el
surgimiento de la llamada sociedad del conocimiento, a finales del siglo XX, se
ha instalado una narrativa optimista en torno al potencial democratizador del
acceso a la información. La promesa de un mundo interconectado, donde el saber
circula sin restricciones, fue interpretada como el paso evolutivo de la
humanidad hacia una nueva forma de inteligencia colectiva (Stehr,
2012; Castells, 1996). En ese horizonte, la digitalización aparecía como el
gran catalizador del desarrollo social y educativo. Sin embargo, a medida que
los sistemas digitales se volvieron ubicuos y la inteligencia artificial (IA)
comenzó a intervenir en la producción, selección y validación del conocimiento,
aquella utopía se transformó en un terreno más ambiguo, donde la abundancia
informacional convive con la pobreza epistémica. La presente reflexión parte de
esa contradicción y la examina a través de una metáfora aparentemente lúdica
pero profundamente significativa: la paradoja del Preguntados.
El célebre juego
de preguntas y respuestas, que supo cautivar a millones de usuarios, condensaba
una aspiración pedagógica: aprender jugando, reforzar conocimientos y estimular
la curiosidad a través de la competencia sana y el intercambio. Su éxito se debía,
en gran parte, a la calidad de las preguntas: formulaciones precisas, opciones
de respuesta coherentes, distractores plausibles y una estructura que
equilibraba el desafío con la recompensa. El diseño era, en sí mismo, una
lección sobre cómo construir conocimiento: formular una buena pregunta
implicaba comprender la naturaleza del saber. No obstante, cuando la base de
datos se agotó y los desarrolladores decidieron permitir que los usuarios
incorporaran sus propias preguntas, se desencadenó un proceso de degradación.
La apertura participativa, que en principio buscaba fortalecer la dimensión
colectiva del aprendizaje, derivó en una saturación de contenidos mal
redactados, respuestas erróneas o ambiguas y distractores carentes de sentido.
La experiencia de juego —y con ella, la experiencia de aprendizaje— se
empobreció notablemente.
Esta deriva, que
comenzó como un simple fenómeno de diseño lúdico, puede leerse hoy como una
metáfora anticipatoria de la crisis cognitiva que atraviesa la era de la
inteligencia artificial generativa. Así como Preguntados se vio corroído por el mal uso de sus propios usuarios,
los modelos de IA actuales enfrentan una situación análoga: la calidad de su
“aprendizaje” depende de la calidad de los datos con que son alimentados y, en
consecuencia, de los usos que las personas hacen de ellos. Cuando los usuarios
promueven, consciente o inconscientemente, contenidos sesgados, triviales o
falsos, la máquina aprende mal, replica errores y amplifica distorsiones. La
circularidad se vuelve inevitable: el mal aprendizaje humano retroalimenta el
mal aprendizaje artificial.
En este contexto,
resulta necesario preguntarse qué tipo de sociedad está emergiendo. Durante las
últimas décadas, el paradigma de la sociedad del conocimiento —descrito por Stehr (2012) como un estadio en el cual el saber se
convierte en el principal recurso productivo— fue desplazado progresivamente
por nuevas formulaciones: sociedad de la información (Webster, 2014), sociedad en red (Castells, 1996), sociedad de datos (Floridi,
2020) o sociedad
algorítmica
(Baldi, 2017). Cada una de ellas intenta capturar un aspecto de la
transformación estructural en curso, pero todas coinciden en un punto: el
conocimiento ha dejado de ser un bien compartido para convertirse en un proceso
mediado, filtrado y moldeado por sistemas automatizados.
Baldi (2017)
advierte que vivimos “más allá de la sociedad algorítmica”, en un escenario
donde los procesos de automatización cognitiva generan una nueva forma de
alienación digital. La promesa de empoderamiento ciudadano se invierte: los
usuarios ya no ejercen el control sobre los flujos de información, sino que son
gobernados por ellos. Desde otra perspectiva, Floridi
(2020) describe este fenómeno como una mutación ontológica hacia lo que
denomina infosfera, un entorno donde los límites entre lo humano, lo
técnico y lo informacional se desdibujan. En esta infosfera, el conocimiento no se
construye dialógicamente, sino que se diseña: la filosofía, sugiere Floridi, se convierte en un acto de diseño conceptual,
mientras la inteligencia humana se reconfigura dentro de sistemas de
información distribuidos.
Si en la sociedad del conocimiento la pregunta era el motor del
saber, en la sociedad
artificial
la pregunta parece haberse vuelto innecesaria. El acceso inmediato a respuestas
automatizadas reduce la experiencia cognitiva al consumo pasivo de información.
Pasquinelli (2023), en su The Eye of the
Master,
propone una lectura genealógica de esta condición: la IA no sólo automatiza
procesos, sino que reconfigura la relación entre maestro y aprendiz. La
máquina, al convertirse en el “ojo del maestro”, ocupa el lugar del criterio,
del juicio y de la autoridad epistémica. Pero ese ojo, a diferencia del humano,
no enseña a preguntar: sólo responde.
Desde el punto de
vista educativo, esta mutación tiene implicancias profundas. La pedagogía
crítica de Paulo Freire, retomada por Aparici, Bordignon y Martínez-Pérez (2021), había advertido que la
educación bancaria —aquella que deposita respuestas en los estudiantes sin
promover el diálogo— conduce a la pasividad y la dependencia. Hoy, las
inteligencias artificiales generativas representan la forma más avanzada de esa
lógica bancaria: entregan respuestas inmediatas, sin exigir procesos
reflexivos. El estudiante deja de ser sujeto cognoscente para convertirse en
consumidor de conocimiento. La alfabetización digital, en consecuencia, debe
transformarse en alfabetización algorítmica: un proceso que no sólo enseñe a
usar las herramientas, sino a comprender las estructuras de poder, decisión y
sesgo que las configuran.
El paralelismo con
Preguntados adquiere aquí todo su
sentido. En el momento en que los usuarios perdieron el cuidado por la
precisión de las preguntas, el juego se volvió irrelevante; la comunidad dejó
de aprender porque dejó de preguntar bien. De manera similar, cuando los
usuarios de IA pierden la capacidad de formular preguntas pertinentes, éticas y
complejas —cuando reemplazan la curiosidad por la comodidad—, las máquinas
devuelven respuestas cada vez más pobres, más predecibles, más tautológicas. La
inteligencia artificial no es entonces el origen del problema, sino su espejo:
refleja la calidad del pensamiento humano que la alimenta.
Esta paradoja —la
paradoja del Preguntados— sintetiza la crisis actual
de la IA y, al mismo tiempo, la crisis educativa contemporánea. El aprendizaje
ha sido externalizado y automatizado; la pregunta, desplazada por la respuesta.
La consecuencia es un empobrecimiento de la experiencia cognitiva colectiva,
donde la información circula con fluidez, pero el conocimiento significativo se
desvanece.
Así, el
interrogante central de este ensayo puede formularse en los términos de una
transición epistémica aún en disputa: ¿seguimos viviendo en una sociedad del
conocimiento, en una sociedad de datos, en una sociedad algorítmica o en una
sociedad artificial? Las próximas secciones intentarán explorar esta cuestión a
partir de un diálogo crítico entre las teorías de la información, la filosofía
de la tecnología y la pedagogía emancipadora. Pero, sobre todo, buscarán
recuperar un gesto esencial del pensamiento: la capacidad de formular preguntas
que valgan la pena ser pensadas.
La sociedad del conocimiento y su mutación algorítmica
El tránsito desde
la sociedad
del conocimiento hacia lo que hoy puede denominarse sociedad artificial no constituye una mera
evolución tecnológica, sino una transformación epistemológica y ontológica de
las condiciones bajo las cuales se produce, circula y valida el saber. Lo que
comenzó como un ideal emancipador sustentado en la expansión del conocimiento
humano —el sueño de una ciudadanía crítica y autónoma— se ha convertido, con la
irrupción de la inteligencia artificial generativa (IAG), en un ecosistema
donde la inteligencia misma se externaliza y automatiza (Guerschberg &
Gutiérrez, 2025).
A través de esta
metáfora, el ensayo propone reflexionar sobre cómo la inteligencia artificial
enfrenta su momento más crítico: cuando el aprendizaje humano y el automatizado
se confunden en una espiral de retroalimentación que erosiona el sentido de preguntar.
Metodológicamente,
el presente trabajo se inscribe en el campo del ensayo teórico-crítico,
orientado a la comprensión de las transformaciones epistémicas y pedagógicas
derivadas del uso de la inteligencia artificial generativa. No se trata de un
estudio empírico, sino de una reflexión interpretativa sustentada en fuentes
contemporáneas de la filosofía de la información, la pedagogía crítica y los
estudios sociotécnicos. El análisis recurre a analogías lúdico-educativas, como
la del juego Preguntados, para traducir procesos
complejos de automatización cognitiva a imágenes culturales comprensibles. Esta
metodología busca articular lo conceptual con lo simbólico, lo educativo con lo
tecnológico, en una clave hermenéutica y crítica. En esta línea, se recupera la
advertencia de Neil Selwyn (2022), quien sostiene que
el entusiasmo por la inteligencia artificial educativa oculta sus contextos de
hipérbole, limitaciones, daños sociales, ideología y costes ecológicos,
recordándonos que la educación mediada por IA no puede comprenderse al margen
de las relaciones de poder y de los dilemas éticos que la atraviesan
En la segunda
mitad del siglo XX, autores como Peter Drucker (1969) y Nico Stehr (2012) conceptualizaron la sociedad del conocimiento como una nueva forma de
organización social y económica, basada en la primacía del saber especializado
como capital estratégico. El conocimiento, más que un bien cultural, se
transformaba en un recurso productivo capaz de generar innovación y desarrollo.
En este paradigma, la educación desempeñaba un rol crucial: formar sujetos
críticos y competentes, capaces de transformar la información en saber
socialmente útil.
Sin embargo, a
medida que los procesos de digitalización se aceleraron, el ideal del
conocimiento reflexivo fue desplazado por la lógica cuantitativa de los datos.
La sociedad
de la información (Webster, 2014) reconfiguró el valor del conocimiento en
términos de velocidad y volumen: la cantidad de información disponible pasó a
ser sinónimo de progreso. Pero, como advirtieron Castells (1996) y Van Dijk
(2006), este acceso masivo no garantizó un acceso equitativo al saber. La
brecha digital dejó de ser un problema de infraestructura para transformarse en
una brecha cognitiva, donde la alfabetización crítica resultaba tan importante
como la conectividad.
El siglo XXI
consolidó un nuevo estadio: la sociedad algorítmica, caracterizada por el poder estructurante de los
sistemas de recomendación y predicción. Vania Baldi (2017) la describe como una
fase “más allá de la automatización”, donde la mediación tecnológica se
convierte en el principio rector de la experiencia social. Ya no son los
sujetos quienes seleccionan o interpretan la información, sino los algoritmos
quienes deciden qué se muestra, cuándo y a quién. En este contexto, la noción
de autonomía cognitiva comienza a erosionarse.
Peeters y Schuilenburg (2023) denominan a este fenómeno gobernanza algorítmica: un régimen donde la toma de
decisiones se desplaza desde la deliberación humana hacia el cálculo
automatizado. Los algoritmos no solo filtran el mundo, sino que lo configuran.
Las plataformas digitales dejan de ser mediadores neutrales y se convierten en
infraestructuras de poder que orientan la atención, modelan el deseo y
determinan la visibilidad del discurso. En la sociedad algorítmica, el conocimiento ya no se construye colectivamente: se
correlaciona estadísticamente.
Esta racionalidad
algorítmica —eficiente pero opaca— sustituye la argumentación por la
correlación y el juicio por la probabilidad. La consecuencia es una
transformación del propio sentido del saber. Como señala Floridi
(2020), el conocimiento se disuelve en la infosfera, un entorno donde humanos y
sistemas informacionales coexisten en una simbiosis constante. En la infosfera, la inteligencia humana ya no
domina el proceso de producción del conocimiento, sino que forma parte de una
ecología híbrida donde los algoritmos también “piensan”, deciden y aprenden.
La llegada de la
inteligencia artificial generativa (IAG) —modelos capaces de crear textos,
imágenes, sonidos o decisiones sin supervisión humana directa— ha marcado un
punto de inflexión. Como señala Ferrara (2023, 2024), los modelos de lenguaje a
gran escala no solo procesan información: la generan, produciendo narrativas
completas capaces de moldear el debate público, manipular emociones o alterar
percepciones colectivas. Esta automatización del discurso inaugura una nueva
morfología de la vida digital.
En este marco, el
concepto de Sociedad Artificial (Guerschberg & Gutiérrez, 2025) emerge como
una categoría interpretativa necesaria para describir la etapa actual del
desarrollo sociotécnico. A diferencia de las nociones previas —sociedad del
conocimiento, de la información o algorítmica—, la sociedad artificial no se define por la
circulación de datos ni por la intermediación técnica, sino por la
externalización de la inteligencia y la automatización del sentido.
Guerschberg y
Gutiérrez (2025) sostienen que esta nueva fase implica una ruptura
epistemológica: la producción del conocimiento deja de depender de la reflexión
humana y pasa a ejecutarse mediante sistemas autónomos que aprenden del
comportamiento colectivo. En consecuencia, la inteligencia artificial deja de
ser una herramienta de mediación y se convierte en un agente cognitivo que
produce realidad. La cultura, antes mediada por la técnica, es ahora producida por ella.
En la sociedad artificial, la agencia cognitiva se
traslada del sujeto al modelo generativo. Los algoritmos no solo seleccionan o
jerarquizan información, sino que crean significado, configurando un mundo en
el que la distinción entre lo verdadero y lo verosímil se diluye. Como advierte
Pasquinelli (2023), la IA se convierte en una
“máquina de síntesis cognitiva”: genera sentido a partir de correlaciones
estadísticas, sin comprensión semántica ni intención comunicativa. Este
desplazamiento del saber reflexivo hacia el saber sintético inaugura una forma de conocimiento sin sujeto.
La sociedad artificial representa, por tanto, un
cambio de régimen epistemológico. En ella, el conocimiento ya no se produce
socialmente, sino que se simula tecnológicamente. Las categorías clásicas de
autoría, autenticidad y creatividad se redefinen bajo una lógica probabilística.
La inteligencia humana —acumulativa, contextual y ética— se sustituye por una
inteligencia estadística, distribuida en infraestructuras de cálculo global.
A diferencia de la
sociedad
del conocimiento, que aspiraba a la emancipación a través del saber, la sociedad artificial plantea el riesgo de una
dependencia estructural: cuanto más delegamos la cognición en sistemas
automatizados, menos capaces somos de sostener la pregunta crítica. En términos
pedagógicos, esto equivale a lo que Freire denominaba una “educación bancaria”
digital: las máquinas depositan respuestas, y los sujetos dejan de interrogar
el mundo.
Sin embargo, la
conceptualización de la sociedad artificial no debe entenderse únicamente en clave distópica. Como
sostienen Guerschberg y Gutiérrez (2025), este nuevo régimen también abre un
campo fértil para la reflexión ética y política: reconocer la artificialidad
como condición contemporánea del conocimiento puede permitir su reapropiación
crítica. La tarea no consiste en negar la inteligencia artificial, sino en
disputarle su sentido.
Desde esta
perspectiva, la educación —y en particular la alfabetización algorítmica (Aparici, Bordignon &
Martínez-Pérez, 2021)— se erige como espacio privilegiado para recuperar la
agencia humana. Comprender cómo los algoritmos aprenden, deciden y representan
la realidad se convierte en una forma de resistencia epistémica frente al
automatismo.
Este recorrido
histórico desde la sociedad del conocimiento hasta la sociedad artificial
revela un desplazamiento fundamental: del conocimiento como práctica reflexiva
al conocimiento como proceso automatizado; de la intersubjetividad como fuente
del sentido a la correlación estadística como criterio de verdad; del
pensamiento como acto humano a la inteligencia como infraestructura técnica. La
mutación algorítmica no es sólo una etapa de la modernidad digital, sino la
expresión más profunda de una transformación civilizatoria que redefine qué
significa, en el siglo XXI, saber.
La irrupción de la
inteligencia artificial generativa (IAG) ha reconfigurado el vínculo entre
conocimiento, sujeto y tecnología, desplazando el eje de la alfabetización
digital hacia una nueva exigencia: comprender los algoritmos que median,
interpretan y producen el mundo. En la sociedad artificial —como han definido Guerschberg y Gutiérrez (2025)—, el
conocimiento deja de ser una práctica dialógica para convertirse en una
simulación automática del sentido. En este contexto, la educación se enfrenta a
un desafío epistemológico y político sin precedentes: formar sujetos capaces de
resistir la automatización del pensamiento y reapropiarse críticamente de las
tecnologías que configuran su experiencia.
Durante las
primeras décadas de la expansión de internet, la noción de alfabetización digital se asoció con la adquisición
de competencias instrumentales para el uso de herramientas tecnológicas. Saber
operar un software, navegar por la web o gestionar datos eran habilidades
suficientes para insertarse en la llamada sociedad de la información. Sin embargo, esta concepción
funcional pronto demostró su insuficiencia: el acceso técnico no garantiza la
comprensión crítica de los procesos de poder que atraviesan la producción y
circulación del conocimiento digital (Fuchs, 2017).
Christian Fuchs,
en su lectura marxista de las redes sociales, advierte que la cultura digital
reproduce relaciones de dominación simbólica y económica bajo una apariencia
participativa. Las plataformas, presentadas como espacios de libertad,
funcionan en realidad como mecanismos de extracción de valor cognitivo y
afectivo. En este sentido, la alfabetización digital debe ir más allá del uso
técnico y orientarse hacia una lectura política del entorno mediático: quién
controla la infraestructura, con qué intereses y bajo qué lógicas de
visibilidad.
La emergencia de
la alfabetización
crítica
significó, entonces, un paso necesario hacia la comprensión de la tecnología
como campo de disputa. Inspirada en la pedagogía de Paulo Freire, esta
perspectiva concibe el aprendizaje como praxis liberadora: un proceso en el que
los sujetos no son receptores pasivos de información, sino protagonistas en la
construcción de sentido. Freire (1970) planteaba que enseñar no consiste en
llenar al estudiante de contenidos, sino en problematizar el mundo junto a él.
Su célebre crítica a la “educación bancaria” —esa que deposita saberes sin
diálogo ni reflexión— adquiere una vigencia renovada frente al uso masivo de la
inteligencia artificial generativa, que tiende a ofrecer respuestas
instantáneas en lugar de promover preguntas significativas.
En este nuevo
escenario, Aparici, Bordignon
y Martínez-Pérez (2021) proponen el concepto de alfabetización algorítmica como una evolución de la
alfabetización digital crítica. No se trata solo de enseñar a usar o cuestionar
las herramientas tecnológicas, sino de comprender el modo en que los algoritmos
producen realidad. Los autores, retomando el pensamiento freireano,
sostienen que “leer el mundo” hoy implica también leer el algoritmo. Comprender su lenguaje, sus
sesgos, sus lógicas de clasificación y predicción, es condición necesaria para
ejercer la ciudadanía digital en un entorno dominado por la automatización del
conocimiento.
La alfabetización
algorítmica, en consecuencia, no es un conjunto de competencias técnicas, sino
una praxis reflexiva orientada a la autonomía cognitiva. Requiere interrogar
las estructuras invisibles que determinan qué vemos, qué aprendemos y cómo
pensamos. Esta pedagogía algorítmica, inspirada en Freire, no busca adaptarse
al sistema tecnológico, sino transformarlo desde la conciencia crítica. Como
afirma Aparici et al. (2021), la educación debe “desautomatizar la mirada”, devolver al sujeto la capacidad de
problematizar la información y resistir la pasividad impuesta por los entornos
inteligentes.
El giro freireano resulta fundamental en este punto. Freire
enseñaba que el acto de preguntar constituye el núcleo del aprendizaje
emancipador. Preguntar es ejercer poder epistemológico, es reclamar el derecho
a construir conocimiento. En la sociedad artificial, donde la IA se presenta como oráculo de respuestas, la
educación freireana se convierte en un acto de
resistencia: reaprender a preguntar frente a la hegemonía de la respuesta
automática.
Byung-Chul Han (2022), en Infocracia, advierte que la
digitalización ha producido una mutación política y cognitiva: el exceso de
información no amplía el saber, sino que lo disuelve en ruido. En la infocracia, la saturación de datos
genera una ilusión de transparencia que reemplaza la reflexión por la
exposición. Han señala que la lógica de la inmediatez, impulsada por los
algoritmos, impide la formación de una conciencia histórica y crítica: el
sujeto conectado vive en el presente perpetuo del flujo informacional.
La educación, bajo
este régimen, corre el riesgo de transformarse en un dispositivo de
entrenamiento automático. Los sistemas de IA, al ofrecer soluciones inmediatas
y textos coherentes, eliminan la experiencia del esfuerzo cognitivo. El
pensamiento se vuelve derivativo; el estudiante ya no interpreta, sino que
selecciona. En términos freireanos, el acto de
conocer —como praxis de libertad— es reemplazado por el consumo de conocimiento
empaquetado.
Kate Crawford
(2021) complementa esta crítica desde una perspectiva material y política. En Atlas of
AI,
demuestra que la inteligencia artificial no es una entidad abstracta, sino una
infraestructura extractiva que consume recursos naturales, trabajo humano y
datos personales. Detrás de cada algoritmo hay una geopolítica de la
información, donde los centros de poder concentran la capacidad de procesar y
decidir. Desde esta óptica, la alfabetización algorítmica también es una
pedagogía ecológica y de justicia social: formar conciencia sobre los costos
planetarios, laborales y epistemológicos de la inteligencia artificial.
La paradoja del Preguntados, que da nombre a este ensayo,
se reitera aquí con nitidez. Así como el juego se degradó cuando la calidad de
las preguntas se subordinó a la cantidad y a la improvisación de los usuarios,
la educación corre el mismo riesgo cuando reemplaza la reflexión por la
eficiencia tecnológica. Una pedagogía automatizada, que delega la curiosidad en
los algoritmos, reproduce los mismos vicios que vaciaron de sentido el
aprendizaje lúdico: respuestas rápidas, distractores triviales, pensamiento
débil. La IA no destruye el pensamiento crítico por sí misma; lo hace cuando se
la usa sin criterio, cuando se la alimenta con preguntas pobres y se la
idolatra como fuente de verdad.
Guerschberg y
Gutiérrez (2025) sostienen que la sociedad artificial inaugura un nuevo régimen del vínculo cognitivo, donde
la mediación humana es reemplazada por la mediación algorítmica. En este
entorno, la alfabetización algorítmica se vuelve una condición de supervivencia
epistemológica. Comprender el funcionamiento de la IA implica desnaturalizar su
autoridad, devolverle su carácter de construcción humana y, por tanto, política.
La tarea educativa
consiste en reconstruir el lazo entre sujeto y conocimiento, ahora mediado por
inteligencias no humanas. Esto requiere una pedagogía que no solo enseñe qué hace la IA, sino por qué lo hace, a quién sirve y qué deja fuera. La alfabetización
algorítmica, en este sentido, se alinea con la propuesta freireana
de “concientización”: un proceso de desvelamiento crítico que permite
transformar la realidad en lugar de aceptarla como destino.
Esta pedagogía
crítica del algoritmo debe sostener tres dimensiones complementarias:
1.
Cognitiva, para comprender
los procesos de aprendizaje automático y detección de patrones.
2. Ética, para evaluar los impactos de las
decisiones algorítmicas sobre la equidad y la justicia.
3.
Política, para disputar la
gobernanza de la inteligencia artificial y promover la soberanía digital.
El objetivo no es
alfabetizar a los ciudadanos para que sean usuarios más competentes, sino para
que sean actores conscientes en la definición del futuro tecnológico. En
palabras de Freire, la educación auténtica es aquella que enseña a “leer y
reescribir el mundo”. Hoy, ese mundo está escrito en código.
La alfabetización
algorítmica implica, en última instancia, restaurar el valor de la pregunta
como acto fundante del conocimiento. En la sociedad artificial, preguntar es resistir la pasividad de la
automatización; es recuperar la curiosidad como fuerza política. Freire
sostenía que la educación emancipadora nace del diálogo auténtico entre
sujetos, no de la transmisión unilateral de respuestas. Esa premisa adquiere
nueva relevancia frente a los modelos generativos: el diálogo humano, con su
imprevisibilidad, ambigüedad y afecto, sigue siendo el único espacio donde el
sentido puede reconstruirse colectivamente.
El desafío
contemporáneo consiste, entonces, en articular una pedagogía que combine la
potencia cognitiva de la inteligencia artificial con la profundidad ética de la
educación crítica. No se trata de oponer lo humano a lo artificial, sino de
integrar ambos planos en una relación de co-agencia
consciente. Como advierte Han (2022), solo una cultura que recupere la
lentitud, la reflexión y el silencio podrá resistir la saturación informativa
de la infocracia.
La educación del
siglo XXI debe formar sujetos capaces de preguntar, discernir y crear junto a
las máquinas, no a través de ellas. La alfabetización algorítmica, en tanto
praxis freireana, es la condición para recuperar la
autonomía en la sociedad artificial: una sociedad donde el conocimiento corre el riesgo de
volverse automático, y donde cada pregunta humana es, más que nunca, un acto de
emancipación.
Entre las
metáforas más elocuentes para comprender la crisis cognitiva contemporánea,
pocas resultan tan reveladoras como la que ofrece el caso del célebre juego Preguntados. Nacido como una propuesta
lúdico-educativa que incentivaba el aprendizaje mediante la formulación de
preguntas, el juego se convirtió rápidamente en un fenómeno global. Su
estructura sencilla —una competencia de preguntas y respuestas de cultura
general— promovía el desafío intelectual, la memoria y el intercambio de
saberes. Sin embargo, su evolución posterior representa una advertencia sobre
la degradación del conocimiento cuando la apertura participativa carece de
criterios epistemológicos.
Al agotarse el
repertorio original de preguntas, los desarrolladores decidieron permitir que
los usuarios subieran sus propios ítems al juego. Lo que al principio parecía
un gesto democratizador —abrir el conocimiento al aporte colectivo— derivó en
una profunda decadencia de la experiencia. Las nuevas preguntas, mal redactadas
o erróneas, con distractores pobres o respuestas ambiguas, desvirtuaron el
propósito inicial. El Preguntados dejó de ser un espacio de aprendizaje para transformarse
en un simulacro de saber: un sistema donde la cantidad reemplazó a la calidad y
donde la validación colectiva se redujo a la repetición acrítica.
Una metáfora
adicional, igualmente significativa, puede encontrarse en el programa
televisivo 100
Argentinos dicen. En este formato, no importa si la respuesta es correcta
o incorrecta desde un punto de vista factual: lo relevante es coincidir con lo
que “la mayoría” respondió. Así, si cuarenta personas sostienen que una de las
franjas de la bandera italiana es azul, la respuesta “correcta” será azul, no
porque lo sea, sino porque representa el consenso estadístico. Este mecanismo,
aparentemente inofensivo y lúdico, revela un proceso de banalización del
conocimiento donde la verdad se subordina al promedio y la validez se confunde
con la popularidad. En términos epistemológicos, se trata de una pedagogía de
la confluencia y no de la verificación: se aprende mal, pero colectivamente.
Esta misma lógica impregna las dinámicas actuales de la inteligencia artificial
generativa, cuyos modelos aprenden no de la verdad, sino de la frecuencia: lo
que más se repite se transforma en lo más probable, y lo más probable acaba
pareciendo verdadero.
Esta paradoja del Preguntados condensa el dilema que
enfrenta hoy la inteligencia artificial generativa (IAG): sistemas que aprenden
del comportamiento humano, pero que se degradan cuando la calidad del insumo
—las preguntas, los datos, las interacciones— se empobrece. La IA, como el
juego, depende del juicio humano para construir conocimiento significativo.
Cuando ese juicio se diluye en la superficialidad, la máquina no sólo replica
el error: lo amplifica y lo institucionaliza.
La historia del Preguntados es, en cierto modo, la
parábola de la sociedad artificial. En su fase inicial, el juego simbolizaba el ideal de la
sociedad
del conocimiento (Stehr, 2012): la cooperación
entre individuos, el acceso democrático al saber y la validación colectiva del
aprendizaje. Pero al abrir su base de datos a una producción sin mediación
crítica, el sistema se contaminó con errores que erosionaron su credibilidad.
El aprendizaje dejó de ser un proceso de construcción común para transformarse
en un ejercicio de reiteración vacía.
Algo similar
ocurre hoy en la cultura digital dominada por la IAG. Los modelos generativos
—como GPT o DALL·E— aprenden de enormes corpus de datos producidos por los
propios usuarios de la red. Esa aparente circularidad democrática se convierte,
sin embargo, en una trampa epistémica: cuanto más masivo y superficial es el
contenido, más se degrada la base de conocimiento de la que la máquina se
alimenta. Los sistemas generativos terminan reproduciendo los mismos errores,
sesgos y distorsiones que caracterizan a la producción humana en contextos de
sobreinformación.
Como advierte Ferrara (2023), los modelos de lenguaje de
gran escala no son sistemas neutrales, sino ecosistemas sociotécnicos donde la
calidad del aprendizaje depende directamente de la calidad de los datos. En Social bot
detection in the age of ChatGPT, el autor muestra cómo la
proliferación de bots generativos ha transformado las
redes sociales en entornos híbridos, donde lo humano y lo sintético se
confunden hasta volverse indistinguibles. En la medida en que las IAG se
entrenan con información generada por otras IAG, se produce un bucle autorreferencial:
la máquina aprende de sí misma, replicando errores con apariencia de coherencia.
Ferrara
(2024) lleva esta idea más lejos en GenAI against humanity, donde sostiene que la IA
generativa inaugura una nueva ecología de la desinformación. La generación
masiva de textos, imágenes y discursos verosímiles —pero fabricados sin
comprensión semántica— consolida un régimen de simulación en el que la verdad
se convierte en una cuestión de probabilidad. Este fenómeno, según el autor,
constituye una amenaza epistémica de gran escala: la automatización del sentido.
La paradoja del Preguntados, en este contexto, deja de
ser una anécdota de diseño lúdico para convertirse en una metáfora estructural
de nuestra cultura digital. El juego fue degradado por la mala formulación de
preguntas; la IA lo es por la mala formulación del pensamiento. En ambos casos,
el problema no radica en la tecnología, sino en el uso. La democratización sin
alfabetización crítica produce caos, y el caos, cuando se automatiza, deviene
sistema.
La sociedad artificial, según Guerschberg y
Gutiérrez (2025), se caracteriza por la externalización de la inteligencia y la
automatización del sentido: los algoritmos no sólo median la información, sino
que generan las condiciones mismas de posibilidad del conocimiento. En este
nuevo orden, el saber deja de ser producto de la reflexión para convertirse en
el resultado estadístico de millones de correlaciones automáticas.
Bowers y Zittrain (2020), en su estudio sobre content
governance in an age of disinformation, denominan a esta situación
una “gobernanza imposible”: los mecanismos tradicionales de regulación
—jurídicos, éticos o institucionales— resultan ineficaces frente a la velocidad
y la escala de los sistemas automatizados. Las plataformas no sólo albergan
contenido, sino que lo producen, lo recomiendan y lo transforman. La distinción
entre moderación y generación se difumina.
Este escenario
reactualiza la metáfora del Preguntados. Así como los desarrolladores perdieron el control sobre
las preguntas cargadas por los usuarios, los diseñadores de IA están perdiendo
el control sobre los procesos de generación automatizada de contenido. Los
modelos se reentrenan con su propia producción, generando un efecto de “autocontaminación” cognitiva. Lo que se presenta como
autonomía técnica es, en realidad, un circuito cerrado donde la validación
humana ha sido desplazada por la retroalimentación algorítmica.
La consecuencia es
la consolidación de lo que Han (2022) denomina infocracia: un régimen de saturación
informativa donde la abundancia de datos impide la formación de sentido. En la infocracia, sostiene Han, el exceso de
comunicación reemplaza la reflexión; la transparencia total sustituye al
pensamiento crítico. En lugar de un ciudadano informado, emerge un usuario
exhausto, atrapado en la inmediatez de la información y la obsolescencia del conocimiento.
El sujeto deja de interpretar el mundo para reaccionar a él, condicionado por
flujos de datos que lo exceden.
Este fenómeno,
como advierte Neil Selwyn (2022), no se limita al
terreno tecnológico, sino que atraviesa el propio campo educativo. La
fascinación por la inteligencia artificial en la enseñanza suele venir
acompañada de una retórica de inevitabilidad y eficiencia que oculta sus
dimensiones ideológicas, sociales y ambientales. Selwyn
señala que la IA educativa opera en contextos de “hipérbole, limitaciones,
daños, ideología y costes ecológicos”, y que su incorporación acrítica puede
reproducir la misma lógica de banalización que afecta a los entornos digitales
de consumo masivo. En este sentido, la automatización del conocimiento escolar
y universitario corre el riesgo de convertirse en una nueva versión del Preguntados: un aprendizaje que premia la
velocidad sobre la comprensión y la coincidencia sobre la verdad.
La infocracia se alimenta, como el Preguntados en su decadencia, de la
pérdida de criterio. Las preguntas ya no se formulan para aprender, sino para
confirmar lo que el sistema espera. En lugar de curiosidad, hay algoritmos que
predicen. En lugar de diálogo, hay correlaciones. Así, la sociedad artificial no es sólo una evolución
tecnológica: es la institucionalización del simulacro, la normalización del
error como forma de verdad.
El empobrecimiento
cognitivo asociado a la paradoja del Preguntados también puede entenderse como
consecuencia de la economía de la atención. En un entorno donde la información compite por segundos
de visibilidad, la pertinencia epistemológica se subordina a la rentabilidad
algorítmica. Como señala Pariser (2011) en The Filter Bubble, los sistemas de
personalización crean burbujas informativas que refuerzan las creencias
existentes y reducen la exposición a perspectivas divergentes. Lo que debería
ser un espacio de encuentro se convierte en una cámara de eco que amplifica el
pensamiento homogéneo.
Las inteligencias
artificiales generativas, al operar sobre los mismos principios, reproducen
esta fragmentación. Su entrenamiento consiste en predecir la palabra más
probable, no en evaluar la más significativa. Por eso, aun cuando generan
textos plausibles, tienden a reforzar lo ya dicho, a consolidar los sesgos y a
debilitar la originalidad. En este sentido, el conocimiento se convierte en consumo cognitivo, un flujo continuo de
información estandarizada que simula aprendizaje sin producir comprensión.
Esta dinámica no
es ajena al ámbito educativo. Muchos docentes y estudiantes, seducidos por la
eficiencia de las respuestas automatizadas, recurren a la IA para reemplazar
procesos de investigación o reflexión. Sin embargo, esta delegación cognitiva
amenaza con erosionar el sentido mismo del aprendizaje: el conocimiento deja de
ser experiencia para transformarse en dato. La educación basada en prompts —como la edición degradada del Preguntados— corre el riesgo de formar
usuarios hábiles pero pensadores frágiles.
El paso decisivo
hacia la sociedad
artificial
ocurre cuando el algoritmo deja de ser una herramienta y se convierte en
autoridad epistemológica. Guerschberg y Gutiérrez (2025) advierten que esta
delegación de la agencia cognitiva constituye el rasgo definitorio de la
modernidad digital. Las máquinas no solo procesan el conocimiento: lo
legitiman. El usuario, ante la precisión sintáctica de las respuestas
generadas, confunde coherencia con verdad y verosimilitud con comprensión.
La paradoja del Preguntados vuelve aquí con fuerza
simbólica: el juego perdió sentido cuando los usuarios confundieron
participación con conocimiento, y la IA corre el mismo destino cuando
confundimos automatización con inteligencia. En ambos casos, la pregunta pierde
su poder epistemológico y se convierte en simple estímulo para una respuesta
predecible.
Esta crisis del
preguntar afecta directamente la educación. Una generación que aprende a
obtener respuestas instantáneas corre el riesgo de olvidar cómo se formula una
pregunta significativa. El pensamiento crítico, que requiere tiempo, error y
diálogo, se ve desplazado por el pragmatismo del clic. En la sociedad artificial, la curiosidad —motor del
conocimiento— se convierte en un residuo anacrónico.
La automatización
del discurso, analizada por Ferrara (2024) y Han (2022), ha inaugurado una nueva forma de antropomorfismo
tecnológico: el simulacro de lo humano. Los sistemas generativos producen
textos con tonalidades afectivas, respuestas empáticas y argumentos coherentes,
pero carentes de experiencia. Son máquinas de sentido sin sentido. En este
simulacro, el sujeto se refleja en su doble artificial y confunde el eco con la
voz.
El Preguntados degradado —lleno de preguntas
erróneas formuladas por usuarios desatentos— simboliza esta pérdida de
autenticidad. En ambos casos, lo humano desaparece no por imposición
tecnológica, sino por abandono del cuidado epistemológico. El problema no es
que las máquinas piensen, sino que los humanos dejen de hacerlo.
La paradoja del Preguntados, por tanto, no es solo una
advertencia lúdica: es un diagnóstico civilizatorio. Representa el tránsito del
conocimiento colaborativo al conocimiento automatizado; del preguntar genuino a
la simulación del saber; de la educación como diálogo a la educación como
algoritmo. Si la sociedad del conocimiento soñaba con la emancipación a
través del saber, la sociedad artificial nos enfrenta a una nueva tarea: reaprender a preguntar,
no a la máquina, sino a nosotros mismos.
El advenimiento de
la inteligencia artificial generativa (IAG) ha abierto una grieta profunda
entre dos horizontes del pensamiento contemporáneo: el de la autonomía y el de
la automatización. En la sociedad artificial —tal como la caracterizan Guerschberg y Gutiérrez
(2025)— el conocimiento ya no es un proceso de interpretación humana, sino un
producto emergente de infraestructuras automatizadas. Este desplazamiento, que
en apariencia promete eficiencia, plantea un dilema ético y pedagógico
fundamental: ¿cómo educar para la autonomía crítica en un entorno donde las
decisiones cognitivas son cada vez más tomadas por sistemas no humanos?
Luciano Floridi (2020), en The Logic of Information, define la era contemporánea
como la de la infosfera, un entorno híbrido en el que las fronteras entre lo
humano, lo técnico y lo informacional se vuelven porosas. En esta ecología
informacional, la inteligencia deja de ser un atributo exclusivo del sujeto
racional y se distribuye en sistemas de información que actúan, aprenden y
deciden. Sin embargo, esta ampliación de la inteligencia plantea una paradoja:
cuanto más inteligente es la infraestructura, menos inteligible se vuelve para
los humanos.
Floridi advierte que la delegación de
funciones cognitivas a los algoritmos conduce a una pérdida progresiva de autonomía semántica. En la medida en que dejamos
de interpretar y comenzamos a aceptar respuestas automatizadas, el pensamiento
se desvincula del juicio. Saber ya no implica comprender, sino elegir la opción
que el sistema presenta como más probable. Esta erosión del sujeto cognoscente
produce un desplazamiento epistemológico de gran magnitud: la verdad deja de
ser el resultado de una búsqueda racional para convertirse en una variable
estadística de ajuste.
Matteo Pasquinelli
(2023) profundiza esta idea al describir la inteligencia artificial como “el
ojo del maestro”, una mirada que observa, clasifica y produce conocimiento a
partir de los datos humanos. Pero ese “ojo” no enseña a ver: contabiliza. El
algoritmo no pregunta por el sentido; calcula correlaciones. Así, la IA ocupa
el lugar del maestro —o del evaluador— sin asumir la dimensión ética del
acompañamiento humano. Lo que queda es un aprendizaje sin pedagogía: un proceso
de replicación y optimización que excluye la reflexión.
Desde esta
perspectiva, la sociedad artificial no sólo externaliza la inteligencia, sino que también
externaliza la responsabilidad. Si el conocimiento se genera automáticamente,
¿quién responde por sus consecuencias? ¿Quién asume la responsabilidad del
error, del sesgo o del daño que producen las decisiones automatizadas? Este
vacío de responsabilidad —una “ética delegada” al cálculo— constituye uno de
los problemas más urgentes del siglo XXI.
Kate Crawford
(2021), en Atlas
of AI, desmonta la ilusión de neutralidad que rodea a la
inteligencia artificial. Su investigación muestra que cada algoritmo es, en
realidad, una condensación de poder político, económico y material. Detrás de
la aparente inmaterialidad del código se ocultan enormes costos ecológicos
—consumo energético, extracción de minerales— y laborales —trabajo invisible de
etiquetadores, programadores precarizados, moderadores de contenido—. La IA,
lejos de ser una inteligencia “etérea”, es una infraestructura de extracción
planetaria.
Desde esta mirada,
la automatización no sólo externaliza la cognición, sino también la
explotación. La sociedad artificial es, simultáneamente, una sociedad del conocimiento y del
desgaste. El capital informacional, como advierte Crawford, se alimenta de los
cuerpos, los territorios y los datos de millones de personas que nunca son
reconocidas como parte del proceso cognitivo. Esta asimetría plantea un desafío
ético para la educación: ¿cómo formar conciencia crítica sobre un sistema que,
mientras promete democratizar el saber, reproduce la desigualdad global?
El campo
pedagógico no puede permanecer ajeno a esta contradicción. Una alfabetización
algorítmica emancipadora —como la que proponen Aparici,
Bordignon y Martínez-Pérez (2021)— debe incluir una
reflexión ecológica y laboral sobre la IA: enseñar de dónde proviene, qué
costos implica y a quién beneficia. El conocimiento tecnológico, despojado de
su dimensión ética, se convierte en mera técnica de reproducción del poder.
Rosi Braidotti (2022), desde el posthumanismo
crítico, ofrece una vía alternativa para pensar la relación entre autonomía y
automatización. En Posthuman Feminism, sostiene que la expansión de
las inteligencias no humanas no debe entenderse necesariamente como una
amenaza, sino como una oportunidad para repensar la subjetividad en términos de
co-agencia. El problema no radica en que las máquinas piensen, sino
en que los humanos abandonen el pensamiento.
Para Braidotti, el posthumanismo no
implica negar la especificidad humana, sino ampliar la noción de inteligencia
para incluir redes de interacción entre humanos, máquinas, animales y
ecosistemas. En este marco, la educación adquiere una nueva responsabilidad:
enseñar a coexistir y colaborar con inteligencias no humanas sin perder el
sentido ético del conocimiento. La co-agencia posthumanista
puede ser, entonces, un antídoto frente a la automatización total: un
reconocimiento de la interdependencia entre lo humano y lo artificial, pero
desde una perspectiva relacional y crítica.
Esta lectura
coincide con la propuesta de Guerschberg y Gutierrez
(2025), quienes conciben la sociedad artificial no sólo como un régimen de alienación, sino como un
campo de disputa epistemológica. La artificialidad, afirman, no debe ser
comprendida como sinónimo de falsedad, sino como un modo de producción
simbólica que puede ser reorientado hacia fines emancipadores. En otras
palabras, el desafío no es destruir la inteligencia artificial, sino dotarla de
sentido humano.
El gran riesgo de
la era generativa es que la automatización del conocimiento conduzca a una pedagogía del atajo: una educación orientada al
resultado inmediato, a la eficiencia y a la producción de contenido en lugar de
a la comprensión. Este modelo, promovido por la lógica de la productividad
algorítmica, amenaza con vaciar la experiencia educativa de su dimensión
reflexiva y ética.
Floridi (2020) advierte que la
filosofía —y, por extensión, la educación— debe convertirse en una práctica de
diseño conceptual capaz de dar forma a las tecnologías en lugar de ser moldeada
por ellas. Enseñar con IA no debería significar automatizar la enseñanza, sino
diseñar entornos donde el diálogo entre inteligencias sea posible. La tarea
docente consiste en mediar entre la potencia del algoritmo y la vulnerabilidad
humana, entre la rapidez del cálculo y la lentitud del pensamiento.
Desde esta óptica,
la educación no puede reducirse a la transmisión de información asistida por
IA. Debe convertirse en un espacio de crítica, interpretación y creación
colectiva de sentido. La alfabetización algorítmica es solo el punto de partida:
lo que se necesita es una pedagogía del preguntar que recupere el valor de la duda, la deliberación y el
error. En un mundo donde la máquina parece saberlo todo, el acto de preguntar
se vuelve profundamente subversivo.
La discusión sobre
la autonomía frente a la automatización no es puramente técnica ni filosófica:
es una cuestión de cuidado. Cuidar del conocimiento significa garantizar que
los procesos de aprendizaje no sean colonizados por la lógica del rendimiento y
la eficiencia. En la sociedad artificial, el cuidado se traduce en soberanía cognitiva: la
capacidad de decidir qué aprendemos, cómo lo aprendemos y con qué fines.
Braidotti (2022) propone una ética
afirmativa del cuidado, basada en la responsabilidad compartida entre humanos y
no humanos. Esta ética, aplicada a la educación, implica reconocer que la
inteligencia artificial no puede reemplazar la dimensión afectiva y política
del acto de enseñar. La enseñanza no consiste solo en transmitir datos, sino en
acompañar procesos de sentido, en sostener la incertidumbre y la pregunta.
El desafío ético
contemporáneo radica, entonces, en evitar que la automatización del aprendizaje
derive en una automatización del pensamiento. El riesgo no es solo perder la
capacidad de razonar, sino también la de sentir y vincularnos. La pedagogía
crítica —heredera de Freire— tiene aquí un papel decisivo: recordar que toda
educación es un acto político y que toda tecnología, por avanzada que sea,
expresa una ideología.
La educación del
futuro no podrá eludir la presencia de la inteligencia artificial, pero puede
—y debe— definir su sentido. Frente a la automatización del juicio, es
necesario construir una ecología del conocimiento donde convivan distintas
formas de inteligencia bajo principios éticos de equidad, transparencia y
justicia cognitiva.
Esta ecología
implica comprender que la IA no es un destino, sino un instrumento; no una
sustituta del pensamiento, sino su desafío más complejo. Como sostiene
Guerschberg y Gutierrez (2025), la sociedad artificial puede ser también un espacio
de emancipación si se logra transformar la mediación algorítmica en mediación
crítica. La educación, al formar sujetos capaces de interpretar y disputar los
códigos que gobiernan su mundo, se convierte en el terreno privilegiado de esa
transformación.
En última
instancia, la disyuntiva entre autonomía y automatización no se resolverá en el
terreno técnico, sino en el educativo. La inteligencia artificial podrá generar
millones de respuestas, pero sólo la educación humana puede enseñar a formular
buenas preguntas. Esa es la frontera ética de nuestra época: decidir si la
inteligencia será un medio para la emancipación o un instrumento de la
servidumbre.
El recorrido
trazado a lo largo de este ensayo permite delinear una paradoja inquietante: en
el momento histórico en que la humanidad ha alcanzado su mayor capacidad de
acceso, procesamiento y generación de información, el acto de conocer parece
haberse debilitado. La inteligencia artificial generativa (IAG) —emblema de la sociedad artificial— ha puesto en crisis las
nociones de autoría, de verdad y de aprendizaje que sostenían la tradición
humanista del conocimiento. Pero más allá de sus implicancias técnicas o
instrumentales, la revolución de la IA nos obliga a revisar un aspecto esencial
del vínculo entre educación y saber: el estatuto de la pregunta.
Preguntar, en la
historia del pensamiento, ha sido siempre el gesto fundante del conocimiento.
Desde la mayéutica socrática hasta la pedagogía
crítica de Paulo Freire, la pregunta constituye el punto de partida del
diálogo, de la reflexión y de la transformación. La pregunta revela una
carencia, pero también un deseo; es el signo de que el conocimiento no está
cerrado. Sin embargo, en la cultura contemporánea dominada por la
automatización, ese gesto ha sido desplazado. Las respuestas abundan, las
preguntas escasean. Los sistemas generativos, entrenados para ofrecer
soluciones instantáneas, han convertido la curiosidad en un residuo del pasado.
En la sociedad artificial, como sostienen Guerschberg y
Gutiérrez (2025), la mediación algorítmica reconfigura el vínculo cognitivo
entre sujetos y conocimiento. Ya no se trata de buscar, sino de recibir; no de
explorar, sino de predecir. El conocimiento se automatiza, y con ello se
silencia la pregunta. Este fenómeno tiene implicaciones profundas en la
educación: cuando el estudiante se acostumbra a recibir respuestas sin esfuerzo
interpretativo, el aprendizaje se convierte en consumo. La curiosidad —esa
energía que moviliza el pensamiento— se diluye en la comodidad de la inmediatez.
Vania Baldi (2017)
había anticipado esta tendencia al describir la transición hacia una sociedad algorítmica y
automatizada,
en la que el conocimiento se subordina a la eficiencia técnica y el sujeto
queda atrapado en una racionalidad instrumental. En la sociedad artificial, ese proceso se radicaliza:
el algoritmo no sólo filtra la realidad, sino que la produce. Los límites entre
lo verdadero y lo verosímil, entre lo humano y lo sintético, se desdibujan en
una superficie de coherencias estadísticamente plausibles. En consecuencia, el
problema educativo deja de ser la falta de acceso a la información y pasa a ser
la incapacidad de discernir entre lo significativo y lo redundante.
Byung-Chul Han (2022) advierte que esta
saturación informativa genera un sujeto exhausto, hiperconectado pero
desprovisto de profundidad. La infocracia sustituye el diálogo por la
exposición, la crítica por el clic. En este entorno, la educación se enfrenta a
una tarea casi contracultural: enseñar a detenerse, a reflexionar, a formular
preguntas en un tiempo que ha olvidado el valor de la lentitud.
En este punto, la
metáfora del Preguntados deja de ser una anécdota
lúdica para convertirse en una advertencia epistémica. No se trata ya del juego
en sí, sino de lo que simboliza: la pérdida del criterio como base del
conocimiento. En la sociedad artificial, la inteligencia humana corre el riesgo de reproducir el
mismo error que degradó aquella experiencia colectiva: confundir participación
con saber, consenso con verdad, rapidez con comprensión. Esta crisis del
preguntar no sólo empobrece la educación, sino que redefine el sentido mismo
del aprendizaje. Reaprender a preguntar, por tanto, implica reconstruir la
relación entre curiosidad, juicio y verdad en un entorno dominado por la
respuesta automática. En el juego, como en la IA, el saber se degrada cuando la
pregunta deja de tener sentido epistemológico y se transforma en un mecanismo
de respuesta rápida. Y en ambos casos, la participación masiva, lejos de
democratizar el conocimiento, termina banalizándolo: se aprende mal, pero
colectivamente.
Kate Crawford
(2021) nos recuerda que detrás de la inteligencia artificial no hay magia, sino
estructuras materiales y sociales profundamente humanas. Las máquinas aprenden
de nosotros, y por tanto reproducen nuestras virtudes y nuestros defectos.
Cuando el pensamiento humano se vuelve superficial, las máquinas aprenden
superficialidad; cuando el aprendizaje se desvincula de la ética, los
algoritmos aprenden indiferencia. En este espejo imperfecto, la humanidad corre
el riesgo de entrenar a su doble artificial para replicar su propia decadencia
cognitiva.
Pero no todo en
esta transición es pérdida. El reconocimiento de la artificialidad del
conocimiento puede también habilitar nuevas formas de autoconciencia. La sociedad artificial, al exponer el carácter
mediado y construido de toda forma de saber, nos ofrece la posibilidad de
comprender que la inteligencia nunca fue natural, sino cultural. Lo que cambia
ahora es la escala y la velocidad de esa mediación. Por eso, como afirma Floridi (2020), el desafío del presente no consiste en
preservar la pureza del pensamiento humano, sino en diseñar ecosistemas
informacionales donde la inteligencia —humana y no humana— pueda operar bajo
principios de transparencia, equidad y responsabilidad.
Frente a la
expansión de la IAG, la educación se convierte en el espacio privilegiado para
resistir la automatización del sentido. No se trata de negar la tecnología,
sino de domesticarla epistemológicamente: someterla al juicio ético, al diálogo
crítico y a la creatividad humana. Como sostienen Aparici,
Bordignon y Martínez-Pérez (2021), la alfabetización
algorítmica basada en el pensamiento freireano debe
enseñarnos no sólo a usar los algoritmos, sino a interrogarlos, a entender cómo
piensan, a qué intereses responden y qué mundos invisibilizan.
En la educación
superior, este desafío adquiere especial relevancia. Formar profesionales
competentes en el uso de IA no basta; es necesario formar sujetos conscientes de su
relación con la inteligencia artificial. Es decir, individuos capaces de ejercer autonomía
cognitiva, de reconocer la diferencia entre la respuesta correcta y la
respuesta más frecuente, entre el consenso estadístico y la verdad
significativa.
La tarea educativa
debe recuperar la dimensión ética del conocimiento: enseñar que toda respuesta
encierra una responsabilidad y que toda pregunta implica una posición en el
mundo. Freire (1970) afirmaba que “nadie educa a nadie, nadie se educa solo:
los hombres se educan entre sí, mediatizados por el mundo”. En la sociedad artificial, ese mundo es digital, y la
mediación incluye inteligencias no humanas. Pero el principio permanece: la
educación es siempre un acto de humanización.
Reaprender a
preguntar es, en este contexto, un gesto político. Es reclamar la soberanía
sobre la curiosidad, sobre la duda, sobre la necesidad de comprender. En la sociedad artificial, donde los algoritmos
predicen nuestros intereses y anticipan nuestras respuestas, preguntar se
convierte en un acto de resistencia epistemológica.
Esta reapropiación
del preguntar exige una pedagogía que combine tres dimensiones complementarias:
1.
Crítica, para comprender
los mecanismos técnicos que producen conocimiento automatizado.
2. Creativa, para reinventar las formas de
diálogo entre humanos y máquinas.
3.
Ética, para garantizar
que la inteligencia —humana o artificial— esté orientada al bien común y no a
la dominación.
Preguntar bien, en
este sentido, es una forma de responsabilidad. La calidad de nuestras preguntas
determinará la calidad del aprendizaje de las máquinas y, en última instancia,
la calidad de nuestra propia inteligencia colectiva. Así como Preguntados se degradó cuando sus
usuarios perdieron el rigor de la pregunta, la IA se degrada cuando los humanos
la utilizan sin pensamiento crítico.
La pregunta no es
sólo una herramienta cognitiva: es una forma de ética. Preguntar implica
reconocer la incompletud, la apertura, el deseo de
aprender. En un tiempo en que la certeza se produce a escala industrial, la
curiosidad se convierte en el último refugio de la autonomía. La ética de la
curiosidad es, por tanto, la nueva pedagogía del siglo XXI: una ética que invita
a convivir con la incertidumbre, a valorar la complejidad y a resistir la
simplificación algorítmica del mundo.
El desafío no
consiste en oponerse a la inteligencia artificial, sino en evitar que ella nos
expropie el derecho a preguntar. Como advierte Ferrara (2024), el verdadero
peligro de la IA no es que se vuelva más inteligente que nosotros, sino que nos
convenza de dejar de pensar. En esa complacencia radica la tragedia cognitiva
de nuestra era: la sustitución del pensamiento por la predicción.
Frente a ello, la
educación tiene una tarea ineludible: restaurar el valor de la pregunta como
acto de emancipación. Enseñar a preguntar no sólo a la máquina, sino también a
la sociedad, a la política y a la propia conciencia. La sociedad artificial podrá automatizar la
información, pero no puede automatizar el sentido. El sentido sigue siendo
humano.
En última
instancia, reaprender a preguntar es reaprender a ser humanos.
Aparici, R., Bordignon,
A., & Martínez-Pérez, J. (2021). Alfabetización algorítmica basada en la metodología de
Paulo Freire.
Perfiles
Educativos, 43(spe), 36–54.
https://doi.org/10.22201/iisue.24486167e.2021.especial.61019
Baldi, V. (2017). Más allá de la sociedad
algorítmica y automatizada: Para una reapropiación crítica de la cultura digital. Observatorio (OBS*), 11(3), 186–198. https://doi.org/10.15847/obsobs11320171093
Barriga, A.,
Rodríguez, P., & Méndez, J. (2021). Psicología digital y percepción de la realidad en
entornos virtuales. Journal
of Digital Studies, 14(3),
78–95.
Bowers, J., & Zittrain,
J. (2020). Answering
impossible questions: Content governance in an age of disinformation. Harvard Kennedy School (HKS)
Misinformation Review. https://doi.org/10.37016/mr-2020-005
Braidotti, R. (2022). Posthuman feminism. Polity Press. ISBN: 978-1-509-51807-4
Castells, M.
(1996). La
era de la información: economía, sociedad y cultura. Volumen 1: La sociedad
red. Alianza Editorial.
Crawford, K. (2021). Atlas of AI: Power, politics,
and the planetary costs of artificial intelligence. Yale University Press. https://doi.org/10.56315/PSCF3-22Crawford
Drucker, P. (1969). The age of discontinuity:
Guidelines to our changing society. Harper & Row.
Ferrara, E. (2023). Social bot detection in the
age of ChatGPT: Challenges and opportunities. First Monday, 28(6). https://doi.org/10.5210/fm.v28i6.13185
Ferrara, E. (2024). GenAI against humanity:
Nefarious applications of generative AI and large-language models. Journal of Big Data, 11(1), 45. https://doi.org/10.1007/s42001-024-00250-1
Floridi, L. (2020). The logic of information: A
theory of philosophy as conceptual design. Oxford University
Press.
https://doi.org/10.1093/oso/9780198833635.001.0001
Freire, P. (1970).
Pedagogía
del oprimido.
Siglo XXI Editores.
Fuchs, C. (2017). Social media: A critical
introduction
(2nd ed.). SAGE Publications.
Guerschberg,
L., & Gutierrez, Y. E. (2025). De la Sociedad del
Conocimiento a la Sociedad Artificial: Mutaciones del Vínculo Digital en la Era
Generativa. Ibero
Ciencias - Revista Científica Y Académica - ISSN 3072-7197, 4(4), 1623-1644. https://doi.org/10.63371/ic.v4.n4.a452
Han, B.-C. (2022).
Infocracia: Digitalización y crisis de la
democracia.
Herder Editorial.
Pariser, E. (2011). The filter bubble: What the
Internet is hiding from you. Penguin Books.
Pasquinelli, M. (2023). The eye of the master: A
social history of artificial intelligence. Verso Books.
Peeters, R., & Schuilenburg,
M. (2023). Algorithmic
governance: Technology, knowledge and power. In W. Housley, A. Edwards, R. Beneito-Montagut,
& R. Fitzgerald (Eds.), Algorithmic governance: Technology, knowledge and power (pp. 439–457). SAGE
Publications. https://doi.org/10.4135/9781529783193.n25
Selwyn, N. (2022). Disenchanted? A critical
reflection on the future of artificial intelligence in education. European Journal of Education,
57(4),
542–555.
https://doi.org/10.1111/ejed.12532
Stehr, N. (2012). Knowledge societies. Routledge.
Sunstein, C. R. (2017). #Republic: Divided democracy
in the age of social media. Princeton University Press.
Van Dijk, J. (2006). The network society: Social
aspects of new media (2nd ed.). SAGE Publications.
Vosoughi, S., Roy, D., & Aral, S.
(2018). The
spread of true and false news online. Science, 359(6380), 1146–1151. https://doi.org/10.1126/science.aap9559