Reflexiones y Modelos de Evaluación del Aprendizaje Universitario en la Era de la Inteligencia Artificial

Naturaleza y alcances de la IA en la educación superior

La IA como tecnología disruptiva, sin volvernos tontos sino potenciarnos. La inteligencia artificial (IA) puede compararse con el Internet: una tecnología disruptiva que no disminuyó nuestra capacidad cognitiva, sino que la amplificó. En el contexto de la educación superior, esto significa un cambio en la forma de enseñar, aprender y evaluar. Herramientas como asistentes de redacción, generación de contenido o tutores virtuales permiten personalizar la enseñanza y facilitar el acceso al conocimiento, fortaleciendo el aprendizaje cuando se usan de manera crítica y pedagógicamente adecuada (Educause, 2024). La vida académica no se reduce a respuestas únicas ni absolutas. En educación superior, la IA debe entenderse como una herramienta que enriquece el proceso investigativo, favoreciendo el pensamiento crítico y la exploración de múltiples perspectivas, en lugar de transformar el aprendizaje en una serie de respuestas prefabricadas (Gonsalves, 2024).

La IA no es transparente, imparcial, mágica ni infalible
•    No es transparente: los modelos funcionan como cajas negras, incluso para sus propios creadores. Sus procesos internos de entrenamiento y ajuste no son del todo conocidos o no se hacen públicos por razones comerciales o técnicas. Esto genera opacidad en cómo llegan a una respuesta y limita la posibilidad de auditar su funcionamiento (UN Today, 2025).
•    No es imparcial: está sesgada por los datos con los que se entrena. La selección, etiquetado y origen geográfico de los datos influyen en la manera en que responde. Un modelo entrenado con información predominantemente en inglés y desde perspectivas occidentales, por ejemplo, tenderá a replicar esos sesgos culturales y sociales (Wikipedia, 2025; Liaison Education, 2025).
•    No es mágica: aunque se presenta en el marketing con iconografía de varitas mágicas y estrellitas, en realidad no es más que un sistema probabilístico que predice la palabra o símbolo más probable en función de patrones estadísticos. La ilusión de creatividad es en esencia una replicación sofisticada de datos previos (Educause, 2024).
•    No es infalible: comete errores, puede fallar y “alucinar” información inventada que parece verosímil. Esto exige que docentes y estudiantes cuenten con bases sólidas de conocimiento y pensamiento crítico para evaluar los resultados y no depender ciegamente de la máquina (Weber-Wulff et al., 2023).
En la educación superior, reconocer estos límites es crucial para diseñar políticas de uso ético y evitar que la IA sustituya el juicio académico, la investigación rigurosa o la formación de pensamiento crítico.

En la educación universitaria, se ha explorado el uso de herramientas de detección de IA para identificar textos generados automáticamente una preocupación creciente en contextos de evaluación. Sin embargo, dichas herramientas tienen importantes limitaciones:
•    Exactitud cuestionable: muchos detectores funcionan mediante análisis de patrones lingüísticos (como la “perplejidad”), pero son poco confiables y propensos a errores, tanto falsos positivos como falsos negativos (Colorado Education Association, 2024).
•    Casos reales críticos: en una experiencia universitaria del Reino Unido, el 94 % de ensayos generados con ChatGPT pasaron desapercibidos y obtuvieron calificaciones más altas que los escritos por estudiantes humanos (The Guardian, 2024).
•    Herramientas imperfectas: el detector de OpenAI fue retirado por baja precisión; y aunque se desarrolló una herramienta de “marcaje” (watermarking) con 99.9 % de efectividad, no se ha liberado públicamente debido a riesgos éticos y de sesgo (Wall Street Journal, 2023).
•    Investigación académica: un estudio con Turnitin mostró que solo detectó 54.8 % del contenido generado por GPT-4, a pesar de indicar un 91 % de probabilidad de IA, lo que refleja la vulnerabilidad a técnicas de evasión y al prompt engineering (Perkins et al., 2023).

IA y aprendizaje humano

La Taxonomía de Bloom estructura el aprendizaje en niveles cognitivos crecientes: recordar, comprender, aplicar, analizar, evaluar y crear  (Verywell Mind, 2023). Esta progresión señala que los primeros niveles como recordar y comprender son indispensables para que los estudiantes alcancen la creatividad auténtica .
La IA se basa en algoritmos probabilísticos y grandes volúmenes de datos de entrenamiento; produce respuestas imitando patrones existentes, pero no genera conocimiento verdaderamente original. No “crea” en un sentido humano, sino que replica y combina contenidos aprendidos (Jackson, 2025).
Abusar de herramientas de IA para etapas básicas como memorizar o comprender conceptos fundamentales puede debilitar el esfuerzo cognitivo necesario y erosionar las bases del aprendizaje. Estas habilidades esenciales deben desarrollarse sin asistencia tecnológica, asegurando la solidez conceptual.
En cambio, en fases más avanzadas como el análisis, la evaluación o la creación la IA puede amplificar el aprendizaje. Un estudio propone un modelo pedagógico que orienta sobre cuándo es apropiado usar IA en la educación superior, apoyándose en la taxonomía revisada de Bloom (Jackson, 2025).
El esfuerzo cognitivo es esencial; sin fundamentos sólidos, el uso de IA puede ser degenerativo. Si los estudiantes recurren a la IA sin haber desarrollado conocimientos fundamentales, su aprendizaje puede degradarse. El esfuerzo cognitivo debe mantenerse como motor del aprendizaje, de modo que la IA potencie, no sustituya, su evolución académica.

Modelos y analogías

Cíborg vs. Centauro: metáforas para entender la colaboración humano y la IA. Basándonos en el artículo From Centaurs to Cyborgs: Our evolving relationship with generative AI (Losey, 2024), se presentan dos metáforas útiles para comprender cómo las personas pueden trabajar con IA en entornos educativos y profesionales:

•    Centauro: simboliza una colaboración híbrida con clara división de tareas entre humano e IA. Cada parte actúa de forma independiente en subcomponentes de una tarea más amplia. Por ejemplo, un estudiante podría idear un análisis crítico (humano), y luego utilizar la IA para redactar esa idea (IA). El trazo está claramente delimitado, como en la figura del centauro, que combina cuerpo humano y cuerpo equino (Losey, 2024). 

•    Cíborg: en este modelo, no hay tal división clara. La IA y el humano trabajan de forma entrelazada, colaborando en cada parte de la tarea de forma fluida. El resultado es una integración profunda, donde no siempre es evidente quién generó qué (Losey, 2024).


En el contexto educativo, esta distinción cobra relevancia:
•    Centauro en educación: el docente o el estudiante decide qué parte del trabajo se realiza de forma autónoma y qué puede delegarse con IA. Por ejemplo, un estudiante puede plantear una pregunta original, analizar datos y luego usar IA para traducir o pulir el texto.


•    Cíborg en educación: el estudiante y la IA colaboran conjuntamente en tiempo real. Por ejemplo, al resolver un problema complejo, el estudiante va interactuando con la IA, recibiendo sugerencias y ajustando la solución dinámicamente sin una frontera clara entre aportes humanos y de IA.

Un experimento controlado con consultores profesionales (Boston Consulting Group) confirma los beneficios de combinar ambos enfoques cuidadosamente (Mollick et al., citado en Losey, 2024):

  • Mejor desempeño: quienes trabajaron como centauros (dividiendo tareas apropiadamente entre humano y IA) mostraron mejoras en productividad, calidad y tiempo de entrega.
  • Atención al “jagged frontier”: existe una línea irregular —la “frontera dentada” del desempeño de la IA— donde algunas tareas son bien cubiertas y otras fallan estrepitosamente. La estrategia centauro permite navegar esa frontera con mayor control (Losey, 2024; Mollick et al., 2024).
  • Cíborg con cuidado: la colaboración total (cíborg) puede ser poderosa, pero exige mayor pericia, juicio humano en el bucle, y supervisión continua para evitar errores o “alucinaciones” generadas por IA (Losey, 2024).


Analogía: bucear en submarino vs. bucear con oxígeno y aletas: Esta analogía refleja los modelos anteriores:
•    Bucear en submarino: pasividad total, como delegar todo a la IA sin participación activa —un enfoque que puede atrofiar habilidades y el pensamiento crítico.
•    Bucear con oxígeno y aletas: la IA actúa como potenciador, pero el “buceador” (estudiante o docente) conserva y expande su capacidad de exploración activa.


Aplicación en educación superior:
•    Tareas básicas (por ejemplo, definición de conceptos, estructuras de ensayo): pueden ser gestionadas como centauro, con tareas claras para la IA (revisión gramatical, sinopsis).
•    Tareas críticas o creativas (como análisis de casos, generación de ideas, solución de problemas auténticos): pueden adoptar un modelo cíborg, siempre que el estudiante mantenga el control del proceso, supervisando e interpretando los aportes de la IA.
Este enfoque promueve una integración equilibrada: los estudiantes desarrollan capacidad crítica, se exponen al pensamiento asistido por IA y aprenden a discernir cuándo la herramienta es útil y cuándo no, fortaleciendo su autonomía académica.



 

El modelo ISAR: inversión, sustitución, augmentación y redefinición

El modelo ISAR (Inversion, Substitution, Augmentation, Redefinition) ofrece un marco conceptual para comprender cómo la IA puede impactar los procesos de aprendizaje en educación superior, mostrando tanto sus beneficios como sus riesgos (Bauer et al., 2025).

Inversión (Inversion)

La inversión ocurre cuando la IA, en lugar de potenciar el aprendizaje profundo, lo reduce, llevando a aprendizajes superficiales. Esto pasa cuando los estudiantes delegan por completo en la IA tareas que deberían involucrar procesos cognitivos esenciales, como argumentar, reflexionar o crear conexiones conceptuales. Por ejemplo, usar ChatGPT para escribir ensayos completos puede generar un rendimiento inmediato, pero sin un aprendizaje transferible o significativo, produciendo “pereza metacognitiva” y pérdida de habilidades críticas (Stadler et al., 2024; Fan et al., 2024 en Bauer et al., 2025).

Sustitución (Substitution)

La sustitución se da cuando la IA reemplaza métodos de enseñanza o apoyo sin modificar la profundidad del procesamiento cognitivo. El resultado de aprendizaje suele ser equivalente, aunque con mejoras en eficiencia. Ejemplo: un cuestionario generado por IA que sustituye al creado por un profesor. El valor principal está en la rapidez y la disponibilidad bajo demanda, pero sin alterar la naturaleza del aprendizaje (Ma et al., 2014; Steenbergen-Hu & Cooper, 2014 en Bauer et al., 2025).

Augmentación (Augmentation)

La augmentación ocurre cuando la IA agrega apoyos cognitivos adicionales que no estaban presentes en la instrucción tradicional. Aquí el aprendizaje se potencia porque el estudiante recibe más retroalimentación, pistas adaptativas o andamiajes personalizados. Ejemplo: un sistema de tutoría inteligente que no solo corrige respuestas, sino que guía al estudiante con explicaciones progresivas, mejorando su comprensión y autorregulación (Belland et al., 2017; Bauer et al., 2025).

Redefinición (Redefinition)

La redefinición es el nivel más transformador: la IA permite diseñar actividades que antes eran difíciles o imposibles. Esto incluye simulaciones complejas, escenarios de aprendizaje basado en problemas, o interacción con agentes conversacionales que fomentan reflexión crítica. Por ejemplo, un estudiante de historia que conversa con una IA entrenada como “personaje histórico” desarrolla pensamiento crítico y creativo de formas que superan las tareas convencionales de lectura o memorización (Graesser, 2016; Bauer et al., 2025).

Implicaciones para la educación superior

  • El riesgo central es caer en la inversión, donde el aprendizaje profundo se convierte en superficial por exceso de dependencia en la IA.
  • Las oportunidades más valiosas se encuentran en la augmentación y redefinición, siempre que se diseñen actividades que demanden esfuerzo cognitivo y fomenten la construcción activa del conocimiento.
  • La clave es que los docentes mantengan al estudiante en el centro, usando la IA como potenciador y no como sustituto de los procesos cognitivos fundamentales.
 

Evaluación en la era de la IA

La irrupción de la inteligencia artificial en la educación superior ha planteado preguntas profundas sobre el sentido y las formas de evaluar el aprendizaje. Tradicionalmente, la evaluación se ha centrado en el producto final: un examen, un ensayo o un proyecto que funciona como “fotografía” del desempeño estudiantil. Sin embargo, en un contexto donde la IA puede generar respuestas impecables en segundos, esta lógica resulta insuficiente. Evaluar únicamente el resultado final puede invisibilizar el verdadero proceso de aprendizaje y, en el peor de los casos, alentar la dependencia de herramientas automatizadas en lugar del desarrollo de competencias propias (Juliani, 2025).
Por ello, se vuelve necesario desplazar la atención hacia el proceso más que hacia el producto. El acompañamiento, los borradores, los intentos fallidos y hasta los prompts que los estudiantes formulan en sus interacciones con la IA ofrecen evidencias más ricas sobre sus habilidades cognitivas y metacognitivas (Alkouk, 2024). Analizar cómo un estudiante formula preguntas, cómo reacciona ante respuestas inadecuadas y cómo ajusta sus estrategias permite al docente identificar la solidez de sus fundamentos conceptuales, algo que un producto final pulido no siempre revela.
Este giro también implica revisar los enfoques filosóficos de la evaluación. ¿Estamos evaluando para aprobar o para aprender? ¿Asumimos el papel de jueces que sancionan o de jardineros que cultivan el crecimiento intelectual? En este sentido, la evaluación en la era de la IA demanda quitarse el “sombrero de policía” y adoptar un rol más formativo y acompañante, donde el énfasis no esté en detectar trampas, sino en promover un uso consciente y reflexivo de la tecnología (Sturgill, 2025).
En definitiva, la IA no invalida la evaluación, pero sí obliga a repensarla. Más que vigilar, la tarea docente es diseñar escenarios de aprendizaje donde la tecnología sea una herramienta de potenciación y no de sustitución, y donde el proceso, con sus errores y aciertos, sea tan valioso como el resultado final.

Evaluación como proceso

Con la presencia de la IA en la educación superior, evaluar el producto final se ha vuelto insuficiente. Un ensayo bien estructurado o una respuesta precisa en un examen ya no garantizan que el estudiante haya desarrollado las competencias esperadas; muchas veces son solo el resultado de un buen prompt dirigido a una herramienta generativa. Por ello, cada vez más se plantea que la evaluación debe mirar más allá de la “foto final” y concentrarse en el camino recorrido.
Observar el proceso permite rescatar evidencias más significativas del aprendizaje: los borradores  de los prompts que muestran la evolución de una idea, las reflexiones que evidencian cambios de perspectiva, o incluso las interacciones con la IA. Analizar qué preguntas planteó el estudiante, cómo modificó sus instrucciones cuando no obtuvo la respuesta esperada y de qué manera interpretó la retroalimentación automatizada se convierte en una ventana hacia sus habilidades cognitivas y metacognitivas. Este tipo de seguimiento no solo fortalece la autenticidad del aprendizaje, sino que también fomenta la autorregulación y la reflexión crítica, competencias cada vez más necesarias en entornos digitales.

Enfoques de la evaluación

La transformación digital nos obliga también a cuestionar las filosofías subyacentes en la evaluación universitaria. Tradicionalmente, muchas prácticas se han concebido como una evaluación para aprobar, donde lo esencial es cumplir requisitos y alcanzar una calificación mínima. En contraste, una evaluación para aprender busca acompañar el desarrollo, retroalimentar de manera formativa y generar experiencias que aporten al crecimiento personal y académico del estudiante.
Aquí surge la metáfora del juez y el jardinero. El juez emite veredictos, señala errores y sanciona incumplimientos; el jardinero, en cambio, cultiva, observa los ritmos de crecimiento y genera las condiciones para que cada planta alcance su potencial. En la era de la IA, el rol docente debería acercarse más al del jardinero, favoreciendo entornos donde el estudiante se sienta seguro de experimentar y explorar con la tecnología, sin temor a ser castigado, sino motivado a reflexionar y aprender.
En esa misma línea, la distinción entre evaluación del aprendizaje y evaluación para el aprendizaje cobra más relevancia que nunca. La primera mide resultados finales; la segunda acompaña los procesos y se integra en ellos para mejorarlos. Asumir este enfoque significa, en palabras prácticas, dejar de lado la actitud de “policía” que busca detectar trampas y en su lugar diseñar experiencias auténticas, donde la IA no sea un atajo para eludir el esfuerzo cognitivo, sino un recurso para enriquecerlo.

Uso responsable y ético de la IA

La integración de la IA en la educación superior exige una visión deliberada y estructurada, que vaya más allá de la adopción tecnológica para abrazar compromisos éticos y pedagógicos sólidos. No se trata únicamente de utilizar herramientas innovadoras, sino de hacerlo con responsabilidad, transparencia y conciencia sobre sus impactos en el aprendizaje y en la comunidad académica.
Primero, es imprescindible construir protocolos de uso y políticas claras que prevengan tanto la dependencia indebida como la deshonestidad académica. Las instituciones deben asegurarse de que la IA esté al servicio del aprendizaje y no se convierta en acceso directo a respuestas automatizadas. Por ejemplo, EducationUSA propone principios como respeto a la autonomía, mecanismos explícitos de consentimiento, preservación de la agencia estudiantil y participación activa del cuerpo docente en las decisiones sobre la adopción de IA (Educause, 2025). Asimismo, la promoción de la equidad y la transparencia elementos esenciales del marco ético deben estar presentes en las políticas institucionales (Liaison Education, 2024).
En segundo lugar, se recomienda incluir una declaración obligatoria en documentos académicos como ensayos, presentaciones o proyectos donde los estudiantes indiquen si utilizaron IA, especificando para qué: traducción, revisión filológica, corrección gramatical, generación de ideas, etc. Esta transparencia fortalece la integridad académica y fomenta una cultura de uso consciente, donde la IA se asume como una herramienta y no como un recurso encubierto.
Además, el Institute for Ethical AI in Education (RAEIA) ha desarrollado un marco ético riguroso para la implementación responsable de la IA en contextos educativos. Su Ethical Framework for AI in Education es un recurso valioso, que proporciona preguntas orientadoras, análisis de riesgos y beneficios, y directrices claras para proteger el derecho de aprendizaje y garantizar un uso justo y seguro (RAEIA, 2025). Poseen una biblioteca gratuita que puede ser mucha utilidad como referencia para la creación de politicas y protocolos. 
En conjunto, el enfoque responsable y ético no solo protege a la comunidad universitaria de riesgos como el plagio o la erosión de competencias, sino que también promueve una cultura de confianza, aprendizaje auténtico y desarrollo académico sostenible.

Evaluación de los aprendizajes en educación superior en Costa Rica en la era de la IA

En Costa Rica, la evaluación universitaria está atravesando un viraje acelerado: de medir productos finales a documentar procesos de aprendizaje con trazabilidad, transparencia y criterio humano informado por datos. Este giro no ocurre en el vacío; se apoya en tres palancas del sistema: (i) lineamientos institucionales que empiezan a normar el uso de IA, (ii) agendas de transformación digital a escala de sistema, y (iii) marcos éticos y técnicos internacionales que aterrizan en prácticas de aula y en aseguramiento de la calidad.
Primero, el nivel institucional. La Universidad Estatal a Distancia (UNED) aprobó en 2024 unas Orientaciones generales para el uso de la IA que, además de reforzar la alfabetización crítica y la supervisión humana, crean una obligación explícita de “evaluar y monitorear el uso de la IA” mediante un comité que emite recomendaciones sobre su aplicación en docencia, investigación y gestión (UNED, 2024). Esto abre una puerta directa a rediseñar la evaluación: quién puede usar qué herramientas, para qué tareas, cómo declararlo y cómo evidenciar el proceso (UNED, 2024). En esa misma línea de transparencia evaluativa, la propia UNED difundió en 2025 una guía práctica para declarar el uso de IA en trabajos académicos (p. ej., traducir, revisar estilo, bosquejar ideas), inspirada en el AI Disclosure Framework de la ACRL, con secciones para detallar el alcance, limitaciones y consideraciones éticas. Esta práctica facilita a las cátedras distinguir apoyo legítimo de sustitución indebida del esfuerzo cognitivo. 
Segundo, el nivel de sistema. El Consejo Nacional de Rectores (CONARE) publicó en 2025 la Hoja de Ruta de Transformación Digital para el subsistema estatal, subrayando que la adopción tecnológica exige transformaciones sistémicas, institucionales y culturales y que los gobiernos y las IES deben evaluar el papel de la tecnología en la mejora de la calidad (CONARE, 2025, pp. 2–3). Aunque el documento no prescribe un “modelo único” de evaluación, sí marca el terreno: madurez digital, datos confiables y coordinación interuniversitaria para que la evaluación sea más pertinente y trazable (CONARE, 2025). En el plano país, la Estrategia Nacional de IA 2024–2027 (MICITT) fija principios de transparencia, equidad, supervisión humana y protección de datos y reconoce la educación como sector prioritario, lo cual enmarca la responsabilidad de las universidades al usar IA en evaluaciones y analíticas de aprendizaje (MICITT, 2024). Además, la Universidad de Costa Rica impulsa un estándar ético para IA (docencia, investigación y gestión) alineado con UNESCO; estos procesos participativos nutren criterios de evaluación con enfoque de derechos y sostenibilidad (UCR, 2025). 
Tercero, los marcos internacionales que aterrizan en aula. Las Guidance for Generative AI in Education and Research de UNESCO recomiendan que la evaluación preserve la agencia del estudiante, sea transparente respecto del uso de IA y mantenga supervisión humana para decisiones de alto impacto (UNESCO, 2023/2025). La OCDE, por su parte, plantea “guardrails” para un uso efectivo y equitativo, y destaca oportunidades en evaluación digital con datos inteligentes, siempre que existan garantías de equidad y explicabilidad (OECD, 2023). 

¿Cómo se traduce esto en prácticas de evaluación concretas?

  • 1.    Evidencia del proceso (más allá del “producto final”). Portafolios con iteraciones, bitácoras de prompts, comparativos antes/después y reflexiones metacognitivas permiten distinguir si la IA fue un atajo o un andamiaje de aprendizaje. Las “declaraciones de uso de IA” y el registro de versiones fortalecen la autoría, la trazabilidad y la integridad académica (Corral, 2025; UNESCO, 2023/2025). 
  • 2.    Autenticidad y oralidad como verificación de dominio. Tareas situadas (estudios de caso con datos locales, laboratorios, simulaciones) combinadas con defensas orales, vivas o walkthroughs del proceso reducen la sustitución de competencias y obligan a explicar decisiones tomadas con IA, en línea con las guías de UNESCO/OCDE sobre supervisión humana y juicio profesional del docente (UNESCO, 2023/2025; OECD, 2023). 
  • 3.    Rubricas “IA-conscientes”. Las rúbricas deberían puntuar la formulación de preguntas, la selección/curación de fuentes, la verificación y el cotejo de salidas de IA, y la transferencia a contextos nuevos. Esto es coherente con la exigencia de explicabilidad y agencia del estudiante defendida por UNESCO y OCDE (UNESCO, 2023/2025; OECD, 2023). 
  • 4.    Medición con analíticas y supervisión humana. Sistemas de apoyo con IA pueden ofrecer retroalimentación rápida o adaptativa, pero la calificación de alto impacto (aprobación, titulación) debe permanecer bajo control docente, como enfatizan las orientaciones de la UNED y el marco país del MICITT en supervisión humana y protección de datos (UNED, 2024; MICITT, 2024). 
  • 5.    Aseguramiento de la calidad y rediseño curricular. En paralelo a la práctica de aula, el SINAES actualizó en 2024 su guía para cambios en planes de estudio en universidades privadas acreditadas, orientando el rediseño curricular en clave de mejora continua. Esto facilita anclar en los perfiles de egreso competencias “IA-conscientes” y evidencias evaluativas acordes (SINAES, 2024). 

El reto principal no es tecnológico sino pedagógico y de gobernanza: explicitar cuándo, cómo y para qué se permite la IA en cada tarea; exigir declaraciones de uso; definir “zonas sin IA” en fundamentos y “zonas con IA supervisada” en niveles superiores; y capacitar a docentes para evaluar pensamiento crítico y transferencia, no solo resultados. Los instrumentos de sistema —ENIA del MICITT y Hoja de Ruta CONARE— habilitan esa dirección al exigir transparencia, articulación interuniversitaria y seguimiento del impacto. Al mismo tiempo, alinear las prácticas locales con UNESCO/OCDE permite blindar la evaluación frente a sesgos y asimetrías, preservando la equidad y la agencia (UNESCO, 2023/2025; OECD, 2023). 

Conclusión

La educación universitaria se encuentra en un punto de inflexión, inmersa en una transición que fusiona lo tradicional con lo disruptivo. Esta investigación ha explorado múltiples dimensiones de la inteligencia artificial (IA) aplicada al aprendizaje y la evaluación en educación superior. Hemos revisado desde sus propiedades fundamentales —como su carácter no transparente, no imparcial, no infalible y no mágico— hasta sus efectos cognitivos y pedagógicos, pasando por modelos conceptuales como Bloom, Centauro–Cíborg e ISAR, y profundizado en el contexto costarricense. 
Se requiere una visión práctica y local: por un lado, la constatación de que la IA ya está presente en las aulas universitarias costarricenses no como prospectiva, sino como realidad cotidiana. Tutores inteligentes, cursos híbridos y guías estatales sobre su uso responsable son manifiestos de su integración, pero al mismo tiempo revelan déficits como la imposibilidad de detectar textos generados por IA y la persistente brecha digital que compromete la equidad educativa. Esta realidad exige diseñar evaluaciones inclusivas y conscientes de las condiciones desiguales del estudiantado. Por otro lado, el análisis sobre cómo la IA transforma la educación universitaria en Costa Rica refuerza el equilibrio que debe buscarse entre riesgos (plagio, desinformación) y beneficios (personalización del aprendizaje, mejora de eficiencia docente). Señala también la urgencia de contar con estrategias prácticas que capaciten a los docentes para utilizar la IA como potenciadora del proceso formativo, en lugar de verla únicamente como riesgo tecnológico.

Desde una mirada integral, el desafío es claro: convertir la IA en un aliado pedagógico, no en una amenaza. Esto implica reconfigurar la evaluación universitaria desde:
  • Lo procesual sobre lo productivo: privilegiar evidencias de aprendizaje (portafolios, reflexiones metacognitivas, bitácoras de prompts, declaraciones del uso de IA) por sobre productos finalistas que, sin control, pueden enmascarar vacíos conceptuales.
  • Ética y transparencia: institucionalizar políticas que exijan claridad sobre cuándo, cómo y con qué propósito se ha utilizado la IA en una tarea; alinear con marcos universitarios y nacionales (UNED, CONARE, MICITT), así como con estándares internacionales (UNESCO, OCDE).
  • Diseño de evaluaciones auténticas: incluir componentes orales, situados, basados en problemas reales y simulaciones que demanden pensamiento crítico, responsabilidad y contextualización del uso de la IA.
  • Rediseño curricular proactivo: incorporar competencias “IA-consciente” en perfiles de egreso, como literacidad digital crítica, habilidades de verificación, formulación adecuada de prompts y juicio analítico, articulando con procesos de aseguramiento de calidad (SINAES).
  • Capacitación docente: formar a los profesores para evaluar no solo resultados, sino estrategia, transferencia y reflexión; y para interpretar lo que la IA aporta, sin delegar su propio juicio.


La evaluación universitaria en la era de la IA tiene el potencial de convertirse en un proceso más significativo, reflexivo y equitativo. El camino pasa por repensar el centro del sistema: colocar al estudiante como sujeto activo de conocimiento, con agencia, conciencia de su proceso y capacidad crítica. La IA debe servir a ese propósito, no reemplazarlo.

Referencias

  • Bauer, E., Greiff, S., Graesser, A. C., Scheiter, K., & Sailer, M. (2025). Looking beyond the hype: Understanding the effects of AI on learning. Educational Psychology Review, 37(45), 1–27. https://doi.org/10.1007/s10648-025-10020-8
  • Colorado Education Association. (2024). Can AI Detect AI?: Tips and Pitfalls of AI Detection. https://coloradoea.org/news-updates/can-ai-detect-ai-tips-and-pitfalls-of-ai-detection
  • Educause. (2024). Striking a balance: Navigating the ethical dilemmas of AI in higher education. https://er.educause.edu/articles/2024/12/striking-a-balance-navigating-the-ethical-dilemmas-of-ai-in-higher-education
  • Gonsalves, C. (2024). Addressing student non-compliance in AI use declarations. Higher Education Research.
  • Liaison Education. (2025). Ethical Considerations for AI in Higher Education: Ensuring Fairness and Transparency. https://www.liaisonedu.com/resources/blog/ethical-considerations-for-ai-in-higher-education-ensuring-fairness-and-transparency
  • Perkins, R., et al. (2023). Game of Tones: Faculty detection of GPT-4 generated content in university assessments. arXiv preprint. https://arxiv.org/abs/2305.18081
  • The Guardian. (2024, diciembre 15). Inside the university AI cheating crisis. https://www.theguardian.com/technology/2024/dec/15/i-received-a-first-but-it-felt-tainted-and-undeserved-inside-the-university-ai-cheating-crisis
  • UN Today. (2025). Built-in bias: Why education and diversity in AI matter. https://untoday.org/built-in-bias-why-education-and-diversity-in-ai-matter
  • Wall Street Journal. (2023, julio 28). There’s a Tool to Catch Students Cheating With ChatGPT. OpenAI Hasn’t Released It. https://www.wsj.com/tech/ai/openai-tool-chatgpt-cheating-writing-135b755a 
  • Weber-Wulff, D., Anohina-Naumeca, A., Bjelobaba, S., Foltýnek, T., & Guerrero-Dib, J. (2023). Testing of detection tools for AI-generated text. International Journal for Educational Integrity, 19(1), 1–22. https://doi.org/10.1007/s40979-023-00147-3
  • Losey, R. (2024, abril 21). From Centaurs to Cyborgs: Our evolving relationship with generative AI. EDRM. https://edrm.net/2024/04/from-centaurs-to-cyborgs-our-evolving-relationship-with-generative-ai/
  • Mollick, E., et al. (2024). Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality. Harvard Business School Working Paper No. 24-013, citado en Losey (2024).
  • Educause. (2025, junio 24). AI Ethical Guidelines. Educause. 
  • Liaison Education. (2024, mayo 9). Ethical considerations for AI in higher education: Ensuring fairness and transparency. Liaison Education. 
  • Institute for Ethical AI in Education (RAEIA). (2025, julio 19). The Ethical Framework for AI in Education. RAEIA. 
  • CONARE. (2025). Hoja de Ruta de Transformación Digital 2024–2025. Consejo Nacional de Rectores. Recuperado de http://www.conare.ac.cr
  • MICITT. (2024). Estrategia Nacional de Inteligencia Artificial 2024–2027. Ministerio de Ciencia, Innovación, Tecnología y Telecomunicaciones. Recuperado de https://www.micitt.go.cr/sites/default/files/2025-02/National%20Artificial%20Intelligence%20Strategy%20of%20Costa%20Rica.pdf
  • OECD. (2023). Digital Education Outlook 2023: Opportunities, guidelines and guardrails for effective and equitable use of AI; Digital assessment. OECD Publishing. Recuperado de https://www.oecd.org/education/digital-education-outlook-2023
  • SINAES. (2024, 23 de septiembre). Gestión Curricular de la DEA presentó la nueva Guía para la elaboración de la propuesta de cambios en los planes de estudio…. Sistema Nacional de Acreditación de la Educación Superior. Recuperado de https://sinaes.ac.cr
  • Universidad de Costa Rica (UCR). (2025, 16 de julio). La UCR lidera el camino hacia el uso ético de la IA en la educación superior. Noticias UCR. Recuperado de https://www.ucr.ac.cr/noticias/2025/07/16/voz-experta-la-ucr-lidera-el-camino-hacia-el-uso-etico-de-la-inteligencia-artificial-en-la-educacion-superior.html
  • UNED (Universidad Estatal a Distancia). (2024, 10 de junio). Orientaciones generales para el uso de la Inteligencia Artificial en la UNED (TD-2024-024; REF.1422-2024). Universidad Estatal a Distancia. Recuperado de https://www.uned.ac.cr

Critical Reflections on University Learning Assessment in the Age of Artificial Intelligence

This article critically examines the challenges and opportunities that artificial intelligence (AI) brings to learning assessment in higher education. AI is understood as a disruptive yet amplifying technology, capable of supporting but also distorting cognitive processes. The paper highlights key risks—opacity, bias, and fallibility—while also addressing its potential as a pedagogical enhancer when aligned with Bloom’s taxonomy, the Centaur–Cyborg collaboration models, and the ISAR framework.
A central argument is that evaluation must move from a product-based to a process-based approach, valuing evidence such as drafts, prompts, and metacognitive reflections to ensure authenticity and integrity. The study also situates these debates in the Costa Rican context, analyzing initiatives from UNED, UCR, CONARE, and SINAES, along with the National AI Strategy.
Ultimately, the article argues that responsible, transparent, and ethically grounded practices are essential to preserve student agency and promote meaningful learning in the age of AI.

Comentarios

Tal vez te interese:

Los principales desafíos de Recursos Humanos: talento, diversidad, digitalización y liderazgo

Normativas y Estándares de Tecnologías de la Información en Costa Rica: Guía Completa para Empresas e Instituciones

Inteligencia artificial y la educación superior en Latinoamérica: Modelos de docencia y transformación institucional, con referencia al caso costarricense (2022–2025)