¿Cómo Está Transformando la Inteligencia Artificial la Educación Universitaria en Costa Rica?


 Por: Alonso Solano Segura

La irrupción de herramientas de inteligencia artificial (IA) generativa como ChatGPT a finales de 2022 ha transformado rápidamente diversos ámbitos, incluyendo la educación superior. En Costa Rica, las universidades y docentes se han visto obligados a reflexionar sobre cómo estas herramientas afectan el aprendizaje y la integridad académica. Mientras que algunos educadores advierten sobre riesgos como el plagio y la desinformación, otros ven en la IA una oportunidad para personalizar la enseñanza y mejorar la eficiencia. Este informe explora los efectos positivos y negativos del uso de la IA por parte de estudiantes universitarios primero en el contexto costarricense con fuentes recientes (debido al tan cambiante curso de la IA) desde 2023, y luego complementando con perspectivas internacionales. Asimismo, se identifican estrategias prácticas para docentes que permitan maximizar los beneficios de la IA en el aprendizaje y mitigar sus efectos adversos.

Beneficios del uso de IA en la educación universitaria

La adopción de IA generativa por estudiantes universitarios puede traer múltiples beneficios cuando se usa de forma ética y orientada al aprendizaje. A continuación, se destacan los principales efectos positivos identificados en estudios recientes y testimonios en el contexto costarricense, reforzados con hallazgos internacionales:

Acceso rápido al conocimiento y aprendizaje autodirigido: Herramientas como ChatGPT ofrecen a los estudiantes acceso inmediato a información y explicaciones sobre prácticamente cualquier tema. Docentes encuestados en Costa Rica mencionan que la IA permite búsquedas amplias y rápidas de datos actualizados, evitando consultas infructuosas. La capacidad de responder preguntas al instante y aclarar conceptos ayuda a los estudiantes a resolver dudas en el momento, sin tener que esperar a la disponibilidad de un profesor. Esto favorece el aprendizaje autodirigido, ya que los estudiantes pueden explorar y aprender de forma independiente con un “tutor virtual” siempre disponible. Un estudio en universidades mexicanas confirmó que muchos alumnos perciben un impacto positivo de ChatGPT en su rendimiento académico, optimización del tiempo para realizar tareas y resolución de problemas. En suma, la IA proporciona un apoyo inmediato que agiliza el aprendizaje y empodera al estudiante para profundizar en los temas a su propio ritmo.

Personalización e inclusión en el aprendizaje: La IA educativa tiene el potencial de personalizar el proceso de enseñanza-aprendizaje adaptándose al ritmo y estilo de cada estudiante. En la Universidad de Costa Rica (UCR), expertos señalan que estas herramientas permiten identificar dificultades de aprendizaje individuales y brindar retroalimentación rápida y efectiva, así como automatizar tareas administrativas para liberar tiempo del docente. Esto último fue señalado por la M.Sc. Hazel Castro, coordinadora del Programa de Tecnología Educativa (PROTEA) de la UCR, quien considera “inminente” la incorporación de IA como ChatGPT en actividades académicas dado que la mayoría de los estudiantes ya la emplean en redacción y corrección de asignaciones. Asimismo, la IA puede fomentar la inclusión educativa: al ofrecer explicaciones personalizadas y adaptables, puede apoyar a estudiantes con dificultades para acceder a la educación tradicional (por barreras geográficas, económicas, discapacidades, etc.). De esta manera, se amplía el alcance educativo y se atienden necesidades individuales, beneficiando especialmente a quienes requieren refuerzo extra o diferentes formas de aprender.

Fomento de la creatividad y pensamiento crítico (usos positivos): Lejos de ser solo un “atajo”, la IA bien utilizada puede estimular capacidades cognitivas superiores. Varios docentes costarricenses observan que ChatGPT puede ser una herramienta versátil para generar ideas y proyectos, facilitando la creación de contenidos educativos. Cuando los estudiantes emplean la IA para explorar distintas perspectivas y enfoques a problemas, se incentiva la creatividad y se enriquece la discusión en clase. Incluso se ha reportado que, si se usa de forma adecuada, la interacción con el chatbot puede promover el pensamiento crítico, pues los alumnos deben analizar, filtrar y complementar las respuestas que obtienen. Un ejemplo práctico sugerido en la UCR es que los estudiantes consulten a ChatGPT sobre un tema visto en clase y luego analicen críticamente sus respuestas en grupo, discutiendo su veracidad y profundidad. Este tipo de actividad convierte a la IA en un “oponente socrático” que desafía al alumno a justificar y contrastar información, en lugar de aceptarla pasivamente. La UNESCO, en su guía rápida sobre IA en educación superior, resalta precisamente el rol de la IA como generador de oportunidades de reflexión más que como reemplazo del pensamiento humano. En síntesis, integrada pedagógicamente, la IA puede servir como catalizador de la creatividad y el pensamiento crítico.

Mejora de la eficiencia y productividad académica: Otro beneficio tangible es la optimización del tiempo en la realización de tareas académicas. Estudiantes y profesores reconocen que herramientas como ChatGPT agilizan la elaboración de resúmenes, borradores de textos y resolución de ejercicios repetitivos. En la encuesta de la Universidad Americana (UAM) Costa Rica, muchos docentes destacaron la capacidad de ChatGPT para reducir el tiempo de construcción de documentos y materiales didácticos, acelerando procesos rutinarios. Por ejemplo, un estudiante puede obtener en segundos un esquema inicial para un ensayo o un código básico de programación, que luego él refina. De igual modo, un profesor puede generar preguntas tipo o incluso rúbricas preliminares con ayuda de la IA, ahorrando tiempo en preparación de clases. Estos usos permiten dedicar más tiempo a tareas de mayor valor pedagógico, como la interacción personalizada con estudiantes. En términos de productividad, en México se encontró que ChatGPT contribuía a mejorar hábitos de estudio al ayudar a organizar mejor el tiempo de los alumnos. Siempre que se mantenga un uso ético, la IA puede actuar como un asistente que hace más eficiente tanto el aprendizaje del estudiante como la labor docente.

Apoyo en la enseñanza y recursos para docentes: Los beneficios no son solo para los estudiantes; cuando los profesores adoptan estas herramientas, también pueden innovar en su práctica. Algunos docentes costarricenses ya emplean ChatGPT para crear materiales didácticos, proponer preguntas de debate e incluso diseñar actividades con enfoques pedagógicos específicos (p. ej. preguntas bajo un modelo constructivista). Esto diversifica las estrategias de enseñanza. Además, la IA puede ayudar a unificar a la comunidad educativa facilitando la comunicación y el intercambio de conocimiento: la capacidad de ChatGPT de generar texto coherente ha permitido, por ejemplo, que docentes y estudiantes trabajen juntos en la revisión de un tema, con la IA proporcionando explicaciones y los participantes corrigiendo o ampliando esa información. También puede mejorar la accesibilidad de los contenidos, al simplificar textos complejos o traducir materiales al español u otros idiomas según las necesidades del grupo. En definitiva, bien aprovechada, la IA se perfila como una herramienta complementaria que apoya la labor docente y potencia el aprendizaje, siempre y cuando se use de forma consciente y ética.

Riesgos y desafíos del uso de IA por estudiantes universitarios

A pesar de sus promesas, el uso irrestricto o inadecuado de la inteligencia artificial en la educación superior conlleva importantes riesgos y efectos negativos. En el contexto costarricense han surgido preocupaciones claras desde 2023, muchas de las cuales reflejan inquietudes globales. A continuación, se analizan los principales riesgos identificados:

Plagio, fraude académico y desintegración de la integridad académica: La mayor alarma en universidades ha sido la posibilidad de que los estudiantes usen IA para hacer trampas en tareas y exámenes. ChatGPT puede generar ensayos, resolver problemas matemáticos o responder preguntas de evaluación, lo que facilita el plagio si los estudiantes presentan esas respuestas como propias. En Costa Rica, este tema cobró relevancia mediática cuando un profesor de la UCR descubrió que 18 estudiantes habían utilizado ChatGPT para resolver un examen, calificándolos con nota de cero. Expertos de la UCR han calificado el contenido producido por ChatGPT directamente como una forma de “‘plagio’”, dado que el modelo parafrasea información existente sin citar fuentes. A diferencia de una copia tradicional desde un libro o internet, el riesgo aquí es más difícil de detectar y los estudiantes pueden verse tentados a entregar tareas generadas por IA con mínima edición. Autoridades académicas advierten que esta práctica compromete seriamente el aprendizaje –pues el alumno no desarrolla las competencias– y la integridad académica en general. De hecho, algunos editores científicos ya hablan de “plagio tecnológico” para referirse a textos creados íntegramente por IA y han establecido políticas de rechazo total a manuscritos escritos por máquinas en revistas como Science o Nature. Así, la facilidad para delegar el trabajo intelectual en la IA socava los valores educativos si no se controla: la honestidad, el esfuerzo y la autoría original se ven amenazados.

Dependencia excesiva y detrimento de habilidades cognitivas: Otro efecto negativo señalado es que el uso indiscriminado de la IA puede debilitar el desarrollo de habilidades importantes en los estudiantes, especialmente el pensamiento crítico y la capacidad de resolver problemas por sí mismos. Docentes costarricenses han observado con preocupación que algunos alumnos se están limitando a presentar datos o respuestas obtenidas de la IA sin comprenderlos, contrastarlos o aplicarlos. Esta falta de análisis crítico indica un riesgo de “sobredependencia” en la herramienta: si cada consulta es resuelta por ChatGPT, el estudiante puede acostumbrarse a no profundizar ni evaluar la información. La UNESCO (2023) ha insistido en que se debe promover el pensamiento crítico precisamente para contrarrestar este fenómeno. Además, la IA tiende a ofrecer respuestas redactadas de manera muy convincente, lo que puede dar una falsa sensación de seguridad. Como advirtió una investigadora de la UCR, ChatGPT “escribe bonito” pero no razona ni verifica hechos, pudiendo repetir sesgos o inducir al error, y el peligro es que el estudiante le crea ciegamente por la elocuencia de la respuesta. En suma, existe el desafío de evitar que la IA atrofie el aprendizaje: si no se orienta correctamente, los alumnos podrían dejar de ejercitar la reflexión profunda, la escritura propia y otras competencias, confiándolo todo a la máquina.

Información incorrecta y sesgos en las respuestas: Las IA generativas como ChatGPT no garantizan exactitud. Un riesgo frecuente es la generación de contenido erróneo, no verificable o sesgado. En abril de 2023, académicos costarricenses discutieron que ChatGPT puede inducir a errores en la investigación porque no cita fuentes ni garantiza la veracidad de sus afirmaciones. Por su entrenamiento estadístico, el modelo a veces produce “alucinaciones” – datos falsos presentados como si fueran ciertos – que un estudiante desprevenido podría tomar por válidos. Asimismo, puede reflejar sesgos culturales o de género presentes en sus datos de entrenamiento. Por ejemplo, Marín Guamán (2023) señala que estos sistemas pueden perpetuar prejuicios lingüísticos y culturales de su corpus. Si los estudiantes no tienen criterios para evaluar críticamente lo que la IA responde, corren el riesgo de aprender información incorrecta o parcial. Este desafío ha sido reconocido en foros internacionales: la rapidez con que ChatGPT fue adoptado dejó poco tiempo para filtrar la calidad de sus contenidos. En la educación superior costarricense, por tanto, surge la necesidad de verificar la veracidad de los resultados generados por la IA, estableciendo criterios claros para evaluarlos. Ignorar este paso podría significar basar trabajos académicos en fundamentos débiles o falsos, afectando la calidad del aprendizaje y la rigurosidad científica.

Dilemas éticos y falta de regulación clara: El uso de IA en educación plantea cuestiones éticas aún en construcción. En Costa Rica, ya en 2023 se debatía si ChatGPT es una “amenaza” o un llamado a repensar la pedagogía. Algunas universidades inicialmente respondieron con prohibiciones o penalizaciones severas (como el caso mencionado de calificar con cero), lo que refleja incertidumbre sobre cómo lidiar con la herramienta. A nivel macro, un grupo de diputados costarricenses llegó a presentar un proyecto de ley – redactado con ayuda de ChatGPT – para proponer la regulación de su uso en el país. Aunque dicha iniciativa legislativa era más un gesto para abrir la discusión, evidencia la preocupación social por posibles usos indebidos (espionaje, fraude, etc.). Hasta la fecha, las instituciones de educación superior en Costa Rica no cuentan con políticas uniformes sobre IA: cada docente o universidad ha reaccionado según su criterio. Esta falta de lineamientos claros deja en zona gris qué se considera trampa y qué es un uso legítimo de apoyo tecnológico. Asociado a ello está el tema de la autoría y derechos de autor: ¿debe un estudiante declarar que usó IA para generar parte de un trabajo? ¿Quién es el autor del contenido creado por ChatGPT? Organismos como el Comité de Ética en Publicación (COPE) han enfatizado que solo un ser humano puede ser autor responsable de un documento, relegando a la IA al papel de herramienta. Sin una guía ética, los estudiantes pueden caer inadvertidamente en conductas deshonestas o violatorias de normas académicas. Por ello, los expertos insisten en la necesidad de definir límites de uso – qué está permitido y qué no – y promover desde ya una cultura de uso responsable de la IA en las universidades.

Desafíos en evaluación y métodos de enseñanza tradicionales: La llegada de la IA también deja al descubierto limitaciones de las prácticas educativas actuales. Muchos métodos de evaluación tradicionales (exámenes escritos, tareas monográficas estándares, etc.) se vuelven ineficaces si un alumno puede simplemente generar la respuesta con ChatGPT. Instituciones costarricenses reconocen que es contraproducente aferrarse solo a medidas punitivas o “métodos represivos” para impedir el uso de la IA. En lugar de ello, la situación “obliga a replantear” las estrategias de enseñanza y evaluación. Como señala Córdoba Sanabria (2023), es necesario definir una nueva andragogía (educación de adultos) en la educación superior costarricense que incorpore la IA, potenciando la enseñanza y personalizando el aprendizaje sin sacrificar la integridad académica. Esto implica un cambio cultural que puede encontrar resistencia al cambio en algunos sectores académicos tradicionales. De igual forma, la falta de capacitación inicial hace que algunos docentes desconfíen o no sepan cómo integrar la IA (un porcentaje de profesores en Costa Rica admite desconocer cómo usar ChatGPT correctamente, mostrando cautela ante la herramienta). En resumen, la IA expone la necesidad de actualizar las pedagogías: si las universidades continúan con las mismas tareas y exámenes de siempre, los incentivos para hacer trampa con IA aumentan y la evaluación deja de reflejar el aprendizaje real del estudiante. Adaptarse a esta nueva realidad educativa es un reto impostergable para que la IA no derive en un empobrecimiento de la calidad educativa.

Estrategias pedagógicas para maximizar beneficios y mitigar riesgos

Dado que la IA ha llegado para quedarse en el ámbito universitario, la pregunta central es cómo aprovechar sus ventajas sin comprometer la calidad educativa. Diversos expertos, tanto en Costa Rica como a nivel internacional, convergen en que la respuesta está en la innovación pedagógica y la formación ética. A continuación, se presentan estrategias prácticas que los docentes universitarios pueden implementar para integrar la IA de forma beneficiosa y minimizar sus efectos negativos:

1. Acompañamiento y uso ético supervisado: En lugar de prohibir totalmente la IA, muchos especialistas recomiendan enseñar a utilizarla de manera responsable. La UCR, por ejemplo, plantea que “lo más importante es acompañar a los estudiantes en que aprendan cómo utilizarla”, aprovechando sus oportunidades, pero guiándolos para que construyan criterio propio. Esto implica que el docente discuta abiertamente con sus clases sobre cuándo y cómo es apropiado usar ChatGPT u otras herramientas. Una práctica sugerida es permitir el uso de IA bajo supervisión en ciertas actividades: por ejemplo, durante una clase, los alumnos pueden consultar a la IA para obtener información y luego el profesor revisa con ellos la fiabilidad de esas respuestas. Al normalizar la IA como apoyo (similar a una calculadora o un buscador), pero requiriendo que se citen las fuentes y se analice críticamente lo obtenido, se crea una cultura de uso transparente. También es vital establecer líneas rojas éticas: dejar claro que utilizar la IA para copiar respuestas completas en evaluaciones sin atribución es inapropiado. En este sentido, educar sobre el plagio académico en la era de la IA es clave. Instituciones pueden actualizar sus códigos de honor y normativas para incluir explícitamente la prohibición del plagio con IA y las sanciones correspondientes. Al mismo tiempo, deben proveerse canales para que los estudiantes consulten dudas éticas (por ejemplo, ¿puedo usar ChatGPT para corregir la gramática de mi ensayo? ¿Hasta dónde es ayuda legítima?). La concientización y la discusión ética permanente son herramientas poderosas: UNESCO (2023) recomienda fomentar conversaciones y talleres sobre la ética de la información y el uso responsable de la IA en las aulas. En resumen, integrar la IA pedagógicamente significa no demonizarla, sino formar usuarios conscientes. El profesor actúa como mediador, asegurándose de que el estudiante entienda las limitaciones de la IA y atribuya correctamente cualquier material generado que utilice.

2. Replanteamiento de las evaluaciones y tareas académicas: Una estrategia crucial para mitigar el mal uso es diseñar evaluaciones menos vulnerables a la trampa con IA y más enfocadas en competencias superiores. Muchos académicos sugieren modificar las tareas tradicionales por actividades que ChatGPT no pueda resolver fácilmente por sí solo. Entre las recomendaciones específicas están:

  • Incluir más preguntas abiertas, análisis de casos y resolución de problemas complejos, que requieran que el estudiante aplique pensamiento crítico y conocimientos contextuales. Estas tareas, al no tener una respuesta única, son difíciles de responder correctamente solo con una IA. Por ejemplo, en vez de pedir un resumen genérico de un tema, solicitar al alumno que contraste dos teorías con ejemplos de su comunidad.
  • Implementar evaluaciones orales, presentaciones o debates donde el estudiante deba explicar con sus propias palabras un tema o defender una postura. La interacción en vivo y la argumentación personal evidencian la comprensión real y son imposibles de delegar completamente en una IA.
  • Usar proyectos prácticos o estudio de casos reales: si se pide a los alumnos desarrollar un proyecto aplicado a un contexto específico (p.ej., un plan de mercadeo para una empresa local, un experimento social en el campus), la IA puede asistir en ideas, pero el estudiante deberá ejecutar y contextualizar el proyecto, aportando experiencias propias. Situaciones auténticas y contextualizadas reducen la utilidad de respuestas genéricas generadas por IA.
  • Diseñar tareas personalizadas o únicas para cada período o grupo. Por ejemplo, incorporar elementos de actualidad (un análisis de un evento sucedido este mes) o detalles particulares en el enunciado de la tarea, de modo que respuestas prefabricadas por terceros no sean aplicables. Incluso se pueden asignar tareas diferenciadas a distintos estudiantes o grupos, disminuyendo la tentación de buscar respuestas de internet o IA que sirvan para todos.
  • Evaluar procesos además de resultados: por ejemplo, utilizar portafolios donde el estudiante presente borradores sucesivos de un trabajo, mostrando cómo fue refinando la tarea. Esto dificulta que un producto final sea completamente obra de la IA, ya que el profesor va viendo el progreso e intervenciones del alumno a lo largo del tiempo.

Estas adaptaciones, inspiradas tanto en la experiencia docente local como en guías internacionales, promueven aprendizajes más significativos. Varios docentes en Costa Rica han propuesto precisamente una “revisión profunda de los métodos de evaluación”, centrándose en lo que la IA no puede hacer bien (pensamiento original, aplicación práctica, creatividad). Al reformar las evaluaciones, se reduce la ventaja de hacer trampa con IA y se alienta al estudiante a usar estas herramientas solo como complemento y no sustituto de su propio razonamiento.

3. Fomento del pensamiento crítico y metacognición: Dado que uno de los peligros de la IA es la posible pasividad intelectual del alumno, reforzar el pensamiento crítico se vuelve indispensable. Los docentes pueden integrar en el currículo actividades explícitas para desarrollar esta habilidad, muchas de las cuales incluso incorporan a la IA como catalizador en lugar de obstáculo. Algunas estrategias efectivas incluyen:

  • Análisis crítico de respuestas de IA: una actividad pedagógica recomendable es pedir a los estudiantes que lleven a clase respuestas obtenidas de ChatGPT a cierta pregunta y luego, guiados por el profesor, evaluarlas críticamente. Pueden identificar aciertos, errores, sesgos o información faltante en las respuestas de la IA. Esto entrena al alumno a no tomar el output de la máquina como verdad absoluta, sino a investigarlo y contrastarlo. Al mismo tiempo, el estudiante practica cómo referenciar correctamente cualquier contenido ajeno que decida usar.
  • Debates éticos y reflexiones en clase: plantear dilemas sobre el uso de IA (por ejemplo, “¿es correcto usar ChatGPT para tareas de programación?”) y moderar discusiones. Tales debates obligan a los alumnos a reflexionar sobre las implicaciones y a escuchar diferentes puntos de vista. Además, normaliza hablar sobre la IA abiertamente, reduciendo el aura de “trampa secreta” y fomentando una actitud más ética y consciente.
  • Enseñanza de habilidades de verificación de información: incorporar pequeñas unidades de alfabetización informacional, donde se enseñe a los estudiantes a verificar datos y referencias obtenidas por medios digitales. Por ejemplo, si ChatGPT ofrece una estadística, motivar al alumno a rastrear una fuente confiable que la confirme o refutarla consultando bases de datos académicas. Esta práctica convierte cada interacción con la IA en una oportunidad de ejercicio crítico.
  • Modelado por parte del docente: los profesores pueden predicar con el ejemplo mostrando cómo usan la IA de forma crítica. Un docente puede proyectar en clase cómo le hace una pregunta a ChatGPT y, al recibir la respuesta, señalar sus puntos débiles o qué confirmaría antes de aceptarla. Esta metacognición guiada demuestra las preguntas que un pensador crítico se haría (¿De dónde salió este dato? ¿Tiene sentido este argumento? etc.) y los estudiantes aprenden ese enfoque.

En Costa Rica, reiteradamente se ha mencionado que fortalecer el pensamiento crítico es la clave para convivir con la IA en la educación. Incluso un artículo costarricense planteó cinco estrategias centradas en pensamiento crítico –desde fomentarlo en cada contexto hasta enseñarlo explícitamente– como respuesta necesaria ante ChatGPT. Francesc Pedró, director de UNESCO-IESALC, resumió que todos hablan de pensamiento crítico en la universidad “pero nadie se hace responsable de la práctica”, instando a tomar acciones claras para imbuir a los estudiantes de capacidad reflexiva y participación en su aprendizaje. En conclusión, los docentes deben reorientar sus cursos para que el alumno entrene constantemente su juicio crítico; de esta manera, la IA pasa de ser una muleta que atrofia el pensamiento a ser un estímulo que el estudiante analiza y mejora.

4. Capacitación docente y alfabetización digital continua: Para implementar todo lo anterior, es fundamental apoyar a los propios docentes en este proceso de cambio. Muchos profesores necesitan formación sobre las herramientas de IA: cómo funcionan, qué potencial tienen en la educación y cuáles son sus limitaciones éticas. En la encuesta de la UAM, un número significativo de docentes subrayó la necesidad de capacitación para poder usar ChatGPT de manera efectiva en la enseñanza. Las universidades deben facilitar talleres, cursos o comunidades de práctica donde los profesores aprendan y compartan experiencias sobre la integración de IA en sus asignaturas. Esta formación debe abarcar tanto aspectos técnicos (por ejemplo, cómo hacer prompts útiles, cómo interpretar las respuestas de la IA) como aspectos pedagógicos (diseño de actividades con IA, manejo de situaciones de plagio tecnológico) y éticos. La alfabetización digital de docentes y estudiantes es prioritaria: el Observatorio de la Educación de la UAM concluyó que reforzar la competencia digital sobre IA es esencial para aprovechar sus beneficios y evitar sus riesgos.

Asimismo, los docentes deben mantenerse actualizados en este campo en rápida evolución. La tecnología de IA evoluciona constantemente (nuevas versiones, otras herramientas como GPT-4, Bard, etc.), por lo que la formación no puede ser puntual, sino continua. Instituciones en Costa Rica están comenzando a moverse en esa dirección: la UCR, mediante PROTEA, inició en 2023 espacios de trabajo y conversación con docentes para estudiar la implementación de IA e intercambiar buenas prácticas. Esta capacitación interna, sumada a colaboración con organismos especializados (como la Fundación Omar Dengo o la UNED, según los planes de la UCR), ayudará a generar pautas adecuadas. En el plano internacional, investigadores sugieren que las universidades ofrezcan programas de entrenamiento para asegurar un uso responsable de la IA, y que se establezcan políticas institucionales claras al respecto. Un claustro docente bien informado tendrá la confianza para innovar en el aula con IA y la habilidad para detectar y frenar usos inapropiados. En pocas palabras, formar al formador es un paso indispensable para integrar la inteligencia artificial de forma exitosa en la educación superior.

5. Adaptación de metodologías pedagógicas e integración curricular de la IA: En línea con las nuevas demandas, es recomendable que las universidades integren la temática de IA en sus planes de estudio y metodologías. Esto abarca varias iniciativas:

  • Incluir contenidos sobre IA y datos en las asignaturas relevantes (por ejemplo, ética profesional, metodología de la investigación, alfabetización informacional). Al enseñar qué es la IA, cómo se utiliza en distintas disciplinas y cuáles son sus implicaciones sociales, los estudiantes desarrollan una comprensión más profunda que trasciende el uso instrumental. Algunos programas internacionales ya proponen módulos obligatorios sobre “IA y aprendizaje” para todos los alumnos.
  • Promover una cultura de innovación pedagógica: Los docentes deben sentirse motivados y respaldados para experimentar con nuevas estrategias que incorporen la IA. Iniciativas como laboratorios de innovación educativa o “observatorios” (como el de la UAM) pueden documentar y difundir experiencias exitosas. En Costa Rica, se enfatiza la importancia de “fomentar una cultura de innovación y creatividad entre docentes y estudiantes” para adaptarse a los cambios constantes que trae la tecnología. Esto implica también romper la barrera del miedo: entender que la IA puede ser una aliada y no necesariamente un enemigo del docente.
  • Integración progresiva y evaluación constante: Se recomienda introducir el uso de IA de forma gradual en las actividades académicas, evaluando sus efectos y haciendo los ajustes necesarios. Por ejemplo, un profesor podría empezar permitiendo que los estudiantes utilicen ChatGPT para una parte de una tarea (como generar ideas), pero no para la tarea completa, y medir el resultado. Los participantes en el informe de la UAM sugieren precisamente una integración progresiva acompañada de actualización tecnológica. Esto permite a la comunidad académica adaptarse poco a poco y desarrollar mejores prácticas con menor riesgo.
  • Herramientas de detección y verificación: Como medida complementaria, las universidades pueden apoyarse en software de detección de contenido generado por IA o de plagio tradicional (p. ej. Turnitin u otros sistemas). Si bien ningún detector es infalible, pueden servir como disuasores y ayudas para identificar irregularidades en trabajos. Algunos expertos internacionales también recomiendan invertir en tecnologías que identifiquen patrones lingüísticos propios de textos artificiales. No obstante, se advierte que confiar solo en detectores no resuelve el problema de fondo; deben usarse junto con las estrategias pedagógicas antes descritas.

Adoptando estas medidas, los docentes pueden canalizar la IA hacia usos constructivos. Por ejemplo, en lugar de prohibir ChatGPT en una clase de redacción, podrían asignar un ejercicio donde el estudiante genera un borrador con la IA y luego lo mejora significativamente aplicando las técnicas aprendidas en el curso, comparando la versión inicial y la final. Así, el uso está permitido, pero con fines formativos. La clave está en que cada decisión metodológica considere: ¿está el estudiante pensando por sí mismo y aprendiendo en este proceso, aunque use IA? Si la respuesta es afirmativa, vamos por buen camino. Como resumió Carmela Velázquez, directora del Consejo Universitario de la UCR, el auge de la IA invita a la docencia a “valorar formas de incorporarla” en los procesos educativos, enseñando al alumno a aprovechar sus ventajas sin perder la ética ni la autoría. Con orientaciones adecuadas, la IA puede transformarse de una amenaza a una aliada pedagógica que potencie la calidad de la educación superior.

Conclusiones

La utilización de la inteligencia artificial por estudiantes universitarios presenta un escenario dual: por un lado, promete mejoras significativas en acceso al conocimiento, personalización del aprendizaje y eficiencia; por otro, supone riesgos reales para la integridad académica y el desarrollo pleno de habilidades. En Costa Rica, la discusión desde 2023 ha reflejado esa dualidad, pasando del temor al plagio masivo a la búsqueda de enfoques proactivos para integrar la IA responsablemente en la academia. Los beneficios potenciales –como la retroalimentación inmediata, la inclusión de estudiantes remotos o la generación de nuevas ideas– pueden potenciar la calidad educativa si se encauzan correctamente. Sin embargo, los peligros –desinformación, dependencia, facilismo– exigen respuestas pedagógicas inmediatas. La experiencia internacional reciente confirma que estos desafíos no son exclusivos de Costa Rica, sino globales, y que instituciones de todo el mundo están experimentando con soluciones creativas.

En este informe se han delineado diversas estrategias para docentes: desde rediseñar evaluaciones y fomentar el pensamiento crítico, hasta acompañar éticamente a los estudiantes en el uso de IA y capacitarse continuamente. Ninguna medida aislada será suficiente; se requiere un enfoque integral que combine políticas claras, formación y renovación pedagógica. Lo fundamental es mantener el foco en el aprendizaje del estudiante: la IA debe ser un medio para enriquecer la experiencia educativa, no un atajo que la empobrezca. Bien utilizada, podrá liberar tiempo para la creatividad, la reflexión y la mentoría personalizada –elementos insustituibles de la educación–. Por el contrario, mal gestionada, podría hacer triviales los logros académicos y erosionar la confianza en la evaluación.

En palabras de un estudio reciente, “ChatGPT es una herramienta valiosa que puede tener un impacto positivo en la educación superior de hoy, siempre y cuando se utilice de manera responsable y complementaria a la educación tradicional”. Costa Rica tiene ante sí el reto de impulsar una “transformación real y efectiva” de su sistema educativo para incorporar estas tecnologías de forma constructiva. Esto implica derribar barreras culturales y fomentar la innovación tanto en docentes como en estudiantes. Solo así se logrará formar profesionales críticos, éticos y adaptados a la era digital. La IA no reemplazará la labor del profesor ni el esfuerzo del alumno, pero sí redefinirá cómo enseñamos y aprendemos. En última instancia, el éxito radicará en lograr un equilibrio donde la inteligencia artificial potencie –y no suplante– la inteligencia humana en las aulas universitarias.

Referencias

  • Córdoba Sanabria, J. (2023). ChatGPT: Un desafío para la educación superior costarricense. Revista Technology Inside, IX, Colegio de Profesionales en Informática y Computación (CPIC), Costa Rica cpic-sistemas.or.crc (Disponible en cpic-sistemas.or.cr ).
  • Kovari, A. (2024). Ethical use of ChatGPT in education: Best practices to combat AI-induced plagiarism. Frontiers in Education, 9(1465703). https://doi.org/10.3389/feduc.2024.1465703 frontiersin.org
  • Martínez Solís, G. (2023, 1 de agosto). Universidad de Costa Rica estudia la implementación del ChatGPT en actividades académicas. Semanario Universidad semanariouniversidad.com
  • Masís Rojas, R. & Murillo González, A. (2023, 22 de agosto). Voz experta: Inteligencia artificial y su uso en la docencia e investigación universitaria – Retos y reflexiones. Universidad de Costa Rica, Sección Voz Expertaucr.ac.cr
  • Molina-Montalvo, H., Macías Villarreal, J. C., & Haces Atondo, G. (2025). Impacto, percepciones y uso de ChatGPT en la formación de estudiantes de pedagogía y educación: Un estudio diagnóstico en diez universidades de México. Revista Tecnología, Ciencia y Educación, (31), 141-155tecnologia-ciencia-educacion.com
  • Observatorio de la Educación UAM (2023). Informe 5: El ChatGPT en la educación superior. Universidad Americana, Costa Rica uam.ac.cr. (Resultados de encuesta a docentes universitarios.)


How Artificial Intelligence Is Transforming University Education in Costa Rica

Abstract: 

 This research explores how the use of artificial intelligence (AI), particularly tools like ChatGPT, is transforming higher education in Costa Rica. It identifies positive effects such as personalized learning, instant access to information, and improved academic efficiency. However, it also highlights risks including plagiarism, technological dependency, and the decline of critical thinking skills. Based on recent studies and local experiences, the report proposes strategies for educators, including redesigning assessments, promoting critical thinking, ethical training in AI use, and ongoing teacher development. The study concludes that responsible and pedagogically guided integration of AI can enhance educational quality without compromising academic integrity.

Comentarios

Lo más leído

ITIL y COBIT en instituciones públicas: ¿normativa obligatoria de la Contraloría General de la República en Costa Rica?

Normativas y Estándares de Tecnologías de la Información en Costa Rica: Guía Completa para Empresas e Instituciones