Skip to main content

La Integridad Académica en la Era Digital: Reflexiones sobre el Uso de Inteligencia Artificial en la Educación

Boris Julián Pinto-Bustamante1 | Guillermo Antonio Jiménez Tobón2

La Integridad Académica en la Era Digital

En la antigua Unión Soviética se emplearon diversos índices para medir la productividad de las empresas estatales: valor monetario del total de los productos, el peso total de todos los productos generados y el número de ítems producidos, entre otros. Sin embargo, estos índices generaron distorsiones funcionales de producción. Cuando se medía por el valor monetario, se producía un solo producto y así se evitaban retrasos en la producción; cuando se medía el peso total, el producto que más pesaba; si el valor a medir era el número de ítems, solo se producía el más fácil de producir (Campbell, 1979).

El ejemplo anteriormente descrito se relaciona con la Ley de Campbell, postulada por Donald Campbell (1979). El autor señala que, “cuanto más se utilice un indicador social cuantitativo para la toma de decisiones sociales, más sujeto estará a presiones de corrupción y más propenso será a distorsionar y corromper los procesos sociales que pretende monitorear”. El indicador a medir se convierte en el objetivo principal, y aquello de debía evaluarse queda relegado a un segundo plano. Este principio aparece en diversos campos no relacionados entre sí, desde economía hasta sociología, y muy vinculado con la expresión coloquial, “hecha la ley, hecha la trampa”, que escuchamos con tanta frecuencia en nuestro contexto cultural. El presente artículo explora algunos retos del uso de sistemas de inteligencia artificial (IA) para la educación, a partir del análisis de los sistemas de incentivos en evaluación, así como algunos desafíos y estrategias para la interacción con estos sistemas.

1. Sistemas de incentivos y educación

En el año 2002, la administración de George W. Bush aprobó la ley “Que ningún niño se quede atrás” (No Child Left Behind), cuyo objetivo principal era medir el progreso de los estudiantes en Estados Unidos. Para evaluar el progreso de los estudiantes de educación básica se realizaban pruebas a través de una serie de exámenes estandarizados. Las escuelas que no obtuvieran buenos resultados eran penalizadas con recortes en su financiación y riesgo de cierre, mientras que las escuelas que demostraran mejor desempeño recibían una mayor subvención y bonos para los maestros. En este contexto, el incentivo de hacer trampa y exagerar los rendimientos de los estudiantes resultaba

estimulante. Se implementaron diversas estrategias para alcanzar los resultados: desde escribir las respuestas en el tablero por parte del profesor, otorgar tiempo adicional para completar la prueba, corregir las respuestas incorrectas de algunos estudiantes, reemplazarlas por las correctas tras la finalización del examen, hasta prácticas como “enseñar para la prueba” (Levitt & Dubner, 2005).

Otro ejemplo es el sistema de evaluación. Uno de los principales problemas de los sistemas de evaluación actuales es la tendencia a simplificar un dominio tan complejo como es el conocimiento a un examen y, a partir de allí, derivar una métrica, generalmente cuantitativa. Luego de varias semanas o meses de clases, un examen de algunos minutos a pocas horas será la conclusión de lo que aprendió el estudiante. Una evaluación de este tipo genera un gran estrés sobre el estudiante, el cual se incrementa de acuerdo con las implicaciones de las evaluaciones (obtener o conservar una beca; aprobar un curso; lograr una promoción en un entorno altamente competitivo, etc.). En este escenario, los estudiantes enfocan su objetivo en aprobar el curso, más que en aprender. Si bien la mayoría de los estudiantes estudiarán para superar el examen, siempre existe el camino más corto: hacer trampa.

¿Por qué se hace trampa? Además de variables como el grado de desarrollo moral, la laxitud prescriptiva de los sistemas de sanciones sociales o factores culturales, los sistemas de recompensas representan un factor relevante. Como afirma cínicamente un personaje del cómico W.C. Fields: “algo que merece la pena tener es algo por lo cual valdría la pena engañar.” (Foster, Fields & West, 1940). Los incentivos, definidos como estímulos que recompensan determinados comportamientos, pueden fomentar el engaño, si el único valor relevante asignado a la práctica es el bien externo de la misma (p. ej. reconocimiento, promoción, privilegios, posibilidades laborales, recompensa económica, etc.), y no los bienes internos, aquellas cualidades que sólo se pueden alcanzar mediante el ejercicio virtuoso de una práctica concreta, por lo cual son inherentes a la práctica, no son intercambiables y representan valores compartidos con la comunidad (p. ej. excelencia, justicia, coraje, diligencia, paciencia, perseverancia, esfuerzo, confianza, etc.) (MacIntyre, 2007).

Siguiendo el debate entre el sofista Trasímaco y Sócrates (República, libro I), el filósofo Eduardo Infante (2005) aprovecha la afirmación del sofista según la cual, "la justicia no es otra cosa que la ventaja del más fuerte", para identificar algunas críticas al sistema

educativo y sus procesos de evaluación. Según Infante, los sistemas de evaluación pueden representar dispositivos de poder que están más orientados hacia la comodidad de los evaluadores y la preservación de un sistema que homogeniza el conocimiento y reproduce desigualdades, que hacia el desarrollo integral de las personas y la identificación de alternativas críticas y creativas de los procesos de aprendizaje.

En este sentido, Más que aceptar la consigna de Trasímaco, defensor del statuo quo, según el cual la ley del más fuerte es la que debe imperar, Platón, en boca de Sócrates, propone que, así como el foco del gobierno debe ser el gobernado y no el gobernante, de la misma forma, el puerto de la educación debe ser la búsqueda de la virtud de los jóvenes y los educandos mediante la persuasión, la mesura y la procura del bien propio y el bien común (Avena, 2011).

2. Integridad académica y sistemas de IAG

Engañar en un examen no es, por supuesto, un fenómeno reciente. Prácticas como copiar al compañero, compartir las respuestas o consultar apuntes escondidos, entre otras triquiñuelas, han existido siempre. Pero con el advenimiento de sistemas de inteligencia artificial generativa (IAG) fácilmente disponibles, rápidos, capaces de simular análisis e integración de la información, las posibilidades de fraude se multiplican en el contexto de sistemas de evaluación orientados a estándares de aprobación. Según el efecto Campbell, los estudiantes emplearán las herramientas de IAG porque lo importante es aprobar una evaluación. Aunque se han expresado diversas preocupaciones en los ámbitos educativos en relación con el impacto de estas tecnologías en la integridad académica, algunos estudios no han demostrado un incremento significativo de estas prácticas en educación secundaria tras la popularización de sistemas de IAG, si bien cabe esperar comportamientos distintos en poblaciones y contextos distintos (Lee, Pope, Miles & Zárate, 2024).

Otro estudio entre estudiantes de cursos de programación encontró, por el contrario, un incremento estadísticamente significativo en las prácticas de copia y un cambio en las fuentes de plagio, desde plataformas online, al uso de IAG ampliamente disponibles, como ChatGPT. El incremento en los porcentajes de plagio se asoció con una mayor pérdida de aprendizaje: un aumento del 25 % en el plagio observado en preguntas de programación se correlacionó con una disminución del 10 % en la puntuación del examen final (Scarfe, Watcham, Clarke & Roesch, 2024).

Otros autores expresan preocupaciones frente a la distorsión de los procesos de aprendizaje ante el uso creciente de herramientas de IAG (Intelligent, 2023); (Paustian, & Slinger, 2024 ), así como en relación con el deterioro de funciones cognitivas como resultado de la excesiva dependencia de las prótesis tecnológicas (Griesbauer, Manley, Wiener & Spiers, 2022) y el declive de habilidades afectivas y relacionales que se expresan en una mayor incidencia de trastornos mentales, agresividad, soledad e incomunicación (Yaccar, 2024). Estos fenómenos han sido descritos desde hace varios años en relación con la sobrecarga cognitiva y los sistemas interruptores de la atención que representa la utilización desregulada y superficial de contenidos hipermedia, lo cual impacta negativamente diversas esferas cognitivas y emocionales (memoria, atención, abstracción, pensamiento crítico, empatía, compasión, entre otras) (Carr, 2011).

El consumo creciente e intensificado de contenidos acelerados por IA puede disminuir la probabilidad de la serendipia, del hallazgo por casualidad de contenidos valiosos, o de la capacidad para explorar información contraria a las creencias personales (Pinto-Bustamante et al., 2023), lo cual se traduce en un incremento del monopolio del conocimiento a partir de algoritmos de recomendación y otras tecnologías que gestionan la economía de la atención. En este sentido, los sistemas de IA representan una “máquina epistémica” (Crawford, 2021), dado que no solo completan tareas humanas, sino que intervienen directamente en la construcción y circulación del conocimiento, frente a lo cual, la agencia epistémica, es decir el grado de control que los agentes tienen en relación con la formación y revisión de sus preferencias y creencias se ve limitado (Coeckelbergh, 2025).

Frente a este fenómeno, revisaremos tres posibles enfoques para la interacción con sistemas de IA en entornos educativos: el enfoque de vigilancia, el enfoque funcionalista y el enfoque deliberativo.

2.1. El enfoque de vigilancia

Una primera perspectiva sugiere un enfoque prohibitivo frente al uso de IAG en las prácticas académicas. Este enfoque demanda el uso de herramientas tecnológicas, algunas

de ellas basadas en IA, para detectar tanto los casos de plagio como la generación de contenido mediado por IAG. Aunque existen tecnologías para detectar el uso de estas herramientas (GPTZero, Originality.ai, ZeroGPT, Winston, etc.), su índice de detección no supera el 30%, según algunos reportes (Scarfe, Watcham, Clarke & Roesch, 2024), mientras otros identifican un 88% de éxito en la capacidad para discriminar documentos realizados por humanos o por IAG (Paustian & Slinger, 2024).

En este punto surgen algunas controversias: ¿Por qué los estudiantes no pueden utilizar herramientas basadas en IA para la realización de sus trabajos, pero instructores e instituciones sí pueden usar tales herramientas para realizar el suyo? La respuesta que se ofrezca ante tal contradicción debe sustentarse de forma razonable para no reforzar la asimetría de poder que hemos mencionado anteriormente entre educadores y educandos. ¿Por qué no se sanciona el recurso a un proceso de corrección de estilo y sí se sanciona el uso de IAG con el mismo propósito? ¿Cómo abordar la heterogeneidad en el uso de la IA en educación? Por ejemplo, ¿cómo garantizar el acceso equitativo a las mejores herramientas (p. ej. las versiones más actualizadas de IAG) y evaluar con justicia a quienes no desean o no pueden utilizarlas? ¿Debería la evaluación de un estudiante que no emplea estas herramientas incorporar un enfoque diferencial, reconociendo que, aunque pueda cometer errores, sus fallas son humanas y auténticas, frente a la aparente perfección de un texto generado por IA, que puede carecer de esfuerzo y autenticidad? Además, ¿cómo definiremos y valoraremos la autenticidad y la calidad en la generación de productos escritos? ¿En términos de creatividad y razonamiento analítico, o en términos de consistencia sintáctica y gramatical? ¿La consistencia sintáctica y estructural de un escrito debe ser considerada sólo desde un punto de vista estético/funcional, o entraña otras virtudes cognitivas y éticas que deben preservarse? Reducir la complejidad de este fenómeno al uso de herramientas tecnológicas anti-plagio y anti IAG reduce el proyecto educativo a un sistema de tecnovigilancia.

Este enfoque está vinculado a la propuesta complementaria de reintroducir evaluaciones presenciales, tanto orales como escritas, lo cual, si bien representa una alternativa en algunos contextos, genera desafíos operativos al evaluar grupos grandes de estudiantes, al tiempo que se corre el riesgo de privilegiar unas competencias menos vulnerables al uso de IAG (como la expresión oral), a expensas de reprimir otras prácticas también relevantes en los procesos educativos, como la escritura académica. Asumir una postura ludita y tecnófoba en este contexto puede conducir a desaprovechar los escenarios emergentes para reformular las prácticas educativas.

Esta perspectiva asume que las herramientas de IA no deben ser utilizadas para el aprendizaje ni para la evaluación, considerando que su uso es tan operativo como el de un teléfono móvil, por lo cual no requiere un aprendizaje profundo ni instrucciones específicas. No obstante, al prohibir sus usos se limita la reflexión sobre el uso de la IA, se corre el riesgo de ignorar y reproducir los errores que estas tecnologías pueden generar, depender en exceso de estos sistemas para la realización de tareas y desaprovechar las ventajas que podrían ofrecer si se utilizan de manera responsable y crítica.

2.2. El enfoque funcionalista

Algunas tendencias proponen otorgar mayor prioridad a las herramientas de IA en el ámbito educativo, lo cual implica diversas estrategias, entre ellas, enseñar el diseño de prompts y la especificación del enriquecimiento de los textos y tareas propias a partir de IAG, con lo cual el sistema de evaluación debería cambiar, sumando a las rúbricas de evaluación la incorporación de criterios que evalúen estas competencias.

El diseño de prompts eficientes exige una mayor capacidad de abstracción y síntesis, al tiempo que la formulación de preguntas exige un adecuado nivel de conocimientos sobre el tema específico: la complejidad y sofisticación de las preguntas depende de la profundidad del conocimiento. En este sentido, el diseño de prompts se puede aprovechar en el desarrollo de competencias pedagógicas como una mayor abstracción, sumado al razonamiento lógico que subyace en el aprendizaje de lenguajes de programación y procesos algorítmicos. No obstante, si no se promueve una mayor equidad en el desarrollo de estas habilidades, podemos vernos abocados al efecto Mateo o de ventaja acumulada, término que tiene su origen en el evangelio según San Mateo (13:12): “Porque a cualquiera que tiene, se le dará, y tendrá más; pero al que no tiene, aun lo que tiene le será quitado” (Merton, 1968). Este efecto se constata cuando se conceden mayores privilegios a quienes cuentan con un mayor capital social, cultural, económico y simbólico.

Un estudiante que no ha alcanzado algunas habilidades básicas planteará con mayor probabilidad preguntas básicas o que no abarquen el problema en su complejidad, sin ningún componente diferenciador. Mientras que los estudiantes que hayan comprendido el tema, probablemente formularán preguntas con mayor nivel de abstracción. La disminución de la brecha digital no se reduce a incrementar las coberturas de acceso a la tecnología. Implica reconocer la IA como un conjunto de sistemas y procesos que representan bienes públicos y que, por lo mismo, demandan sistemas de gobernanza democrática (Foro sobre Información y Democracia, 2024). Implica también repensar, desde los sistemas educativos, las competencias necesarias para disminuir la brecha entre ventajas y desventajas acumuladas.

2.3. El enfoque deliberativo

Este enfoque parte de una deliberación al interior de los distintos actores del sistema educativo en relación con una perspectiva teleológica de la educación: ¿cuáles son las competencias pedagógicas que se deben promover y evaluar? ¿Por qué? Esta respuesta debe considerar no sólo las competencias del saber y el hacer operativo articuladas con las lógicas productivas y del rendimiento, sino también las capacidades humanas para el ejercicio de una ciudadanía activa, creativa y reflexiva.

Al tiempo que se pueden introducir espacios para optimizar el diseño de prompts y competencias de programación y razonamiento algorítmico, orientados al desarrollo de mejores capacidades de abstracción, síntesis y lógica, es posible pensar en espacios orientados a identificar las limitaciones del razonamiento algorítmico y la identificación de las distintas formas de razonamiento (deductivo, inductivo, abductivo, divergente, etc.). En el campo de la educación en medicina y ciencias de la salud, por ejemplo, al tiempo que debemos avanzar en la incorporación de contenidos de IA aplicados a las prácticas clínicas y de investigación, es necesario identificar los matices y complejidades de las inferencias médicas (Romero-Cristóbal, Salcedo Plaza & Banares, 2024). Así como el residente de cirugía debe formarse tanto en cirugía laparoscópica y robótica, como en cirugía abierta, de la misma forma tenemos el desafío de educar para el uso de los sistemas de IA y para la toma de decisiones en ausencia de estas prótesis tecnológicas y cognitivas.

Dentro de las competencias necesarias es relevante formar para la identificación de “alucinaciones”, o mejor definidas como artefactos de compresión (Chiang, 2023). Estos artefactos introducen respuestas erróneas y la forma más efectiva de detectarlas es por medio del conocimiento específico. Al tiempo, es necesario introducir competencias necesarias para aprovechar la IA en la identificación de información falsa y creencias conspirativas (Costello, et al, 2024), promover el pensamiento crítico a partir de una mejor comprensión del funcionamiento, tanto de los procesos del pensamiento humano, como de los modelos de IA (Hagendorff, Fabi & Kosinski, 2023), identificar sesgos de selección en el entrenamiento de los sistemas de IA a partir de datos no representativos, así como diferentes tipos de sesgos arbitrarios (Chinta, et al, 2024), promover una reflexión crítica sobre las dimensiones políticas, ambientales y sociales de los sistemas de IA (Crawford, 2021) e incluso aprovechar estos sistemas para promover la deliberación democrática (Tessler, et al, 2024).

Si bien el uso de IA en estudiantes es creciente, sus modalidades y motivaciones son diversas: desde incrementar la comprensión de un problema, pasando por esquematizar un ensayo, editar aspectos gramaticales y de redacción, hasta escribir integralmente un documento o responder las preguntas de un examen. En este escenario todavía persisten muchos interrogantes sobre los límites éticos del uso de sistemas de IA en educación (Paustian & Slinger, 2024).

Esta realidad demanda diálogos entre educadores, estudiantes, instituciones y otros sectores sociales en relación con los usos aceptables, virtuosos y justos de los sistemas de IA, en los cuales se reivindique el valor de la lectura y la escritura como experiencias multisensoriales (Perrone-Bertolotti et al., 2012) éticas y socioculturales, y no solo como recursos informativos o con valor simplemente ornamental. Al tiempo, es relevante reconocer las posibilidades pedagógicas de los recursos tecnológicos y basados en IA.

Diversos estudios han reportado contribuciones de la IAG al pensamiento creativo (Pont-Niclos, Echegoyen-Sanz, Orozco-Gómez & Martín-Ezpeleta, 2024). Otros reportes describen usos pedagógicos de las IAG en educación, a partir de la creación de simulaciones digitales, chatbots personalizados que actúan como tutores, asistentes de investigación o entrenadores personales, preparación para evaluaciones y apoyo motivacional, entre otros (Heidt, 2025), mientras otros trabajos apuntan a imaginar narrativas críticas sobre el futuro de las intersecciones entre tecnología y educación (Popenici, 2022); (Gidiotis & Hrastinski, 2024).

En este sentido no es razonable penalizar todos los usos de la IA en educación. Si el uso de una IAG incrementa las capacidades de redacción, análisis y comprensión de un estudiante, en el contexto de un acceso equitativo y sobre la base de competencias pedagógicas concretas, ¿debería prohibirse? Es posible, entonces, pensar en prácticas pedagógicas en las que no se utilicen herramientas de IA, dado que los objetivos pedagógicos que se persiguen no incluyen estas destrezas, mientras en otros casos es posible incorporarlas desde la justificación y evaluación de los objetivos de aprendizaje que se persiguen con estas prácticas (Latham-Gambi, 2024) y sobre una base de equidad y trasparencia. Un escenario diferente es el uso de herramientas de IA sin objetivos de aprendizaje, sin condiciones equitativas en relación con el resto del grupo y orientadas a los bienes externos, en detrimento de los bienes internos de las prácticas de aprendizaje.

Conclusiones

En una investigación sobre el uso de IAG en educación, una de las principales razones por las que un grupo de estudiantes aceptó su uso de forma inadecuada, fue la falta de tiempo (Paustian & Slinger, 2024). Como afirma el escritor checo Milan Kundera (1995) en su novela “La lentitud”: “existe un vínculo misterioso entre la lentitud y la memoria y entre la velocidad y el olvido”. En una sociedad cronopática (González Serrano, 2024) cabe reflexionar sobre cuál es el lugar para la lentitud, el silencio y la reflexión en sistemas educativos cada vez más atravesados por el vértigo de la información y las lógicas del rendimiento y la productividad.

Cabe preguntar, al tiempo, si los sistemas educativos deben plegarse al déficit de atención de la sociedad actual o si deberían perseverar en la resistencia creativa frente a la velocidad y el olvido. Es necesario habilitar espacios de desconexión y reflexión en los ámbitos educativos que promuevan el pensamiento crítico, la imaginación, la deliberación consigo mismo y con los otros. Los usos de la IA en el contexto educativo deben orientarse por objetivos pedagógicos centrados en el desarrollo del pensamiento crítico y el aprendizaje para la comprensión.

Al tiempo, es necesario repensar los sistemas de incentivos en los procesos educativos, plegados a las lógicas empresariales del logro de objetivos estratégicos e individuales en el menor tiempo posible. Los sistemas de evaluación deben ser reconsiderados en términos de logros integrales, cooperativos, críticos, analíticos, creativos, enfocados en la comprensión de procesos y no solo en la consecución de resultados finales, así como deben incluir competencias afectivas y comunicativas junto con las competencias utilitarias. Como comunidades comprometidas con la educación, nuestro deber trasciende la búsqueda de resultados externos; reside en promover la excelencia en el logro de los bienes internos y esenciales que otorgan sentido a nuestras prácticas formativas.


Referencias:

1. Avena, M. E. (2011). La justicia como ley del más fuerte: Trasímaco y Calicles contra Sócrates. Stylos, 20, 39-52.

2. Campbell, D. T. (1979). Assessing the impact of planned social change. Evaluation and Program Planning, 2(1), 67–90.

3. Carr, N. (2010). The shallows: What the internet is doing to our brains. W. W. Norton & Company.

4. Chiang, T. (2023, febrero 9). ChatGPT is a blurry JPEG of the web: OpenAI’s chatbot offers paraphrases, whereas Google offers quotes. Which do we prefer? The New Yorker. Recuperado de https://www.newyorker.com

5. Chinta, S. V., Wang, Z., Yin, Z., Hoang, N., Gonzalez, M., Le Quy, T., & Zhang, W. (2024). FairAIED: Navigating fairness, bias, and ethics in educational AI applications. Florida International University, TERRA Environmental Research Institute, L3S Research Center.

6. Costello, T. H., Pennycook, G., & Rand, D. G. (2024). Durably reducing conspiracy beliefs through dialogues with AI. Science (New York, N.Y.), 385(6714), eadq1814. https://doi.org/10.1126/science.adq1814

7. Crawford, K. (2021). The Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.https://doi.org/10.2307/j.ctv1ghv45t

8. Coeckelbergh, M. (2025). AI and Epistemic Agency: How AI Influences Belief Revision and Its Normative Implications. Social Epistemology,

ahead-of-print(ahead-of-print). https://doi.org/10.1080/02691728.2025.2466164

9. Foster, E. F. (Director), & Fields, W. C., & West, M. (Writers). (1940). My Little Chickadee [Motion picture]. Universal Pictures.

10. Foro sobre Información y Democracia. (2024). La IA como bien público: garantizar el control democrático de la IA en el espacio de la información. Recuperado de https://esferacomunicacional.ar/nuevo-informe-del-foro-id-mas-de-doscie…

11. Gidiotis, I., & Hrastinski, S. (2024). Imagining the future of artificial intelligence in education: a review of social science fiction. Learning, Media and Technology, 1–13. https://doi.org/10.1080/17439884.2024.2365829

12. González Serrano, C. J. (2024, febrero 19). La sociedad cronopática: Tiempo y opresión. Ethic. https://ethic.es/2024/02/la-sociedad-cronopatica-tiempo-y-opresion/

13. Griesbauer, E. M., Manley, E., Wiener, J. M., & Spiers, H. J. (2022). London taxi drivers: A review of neurocognitive studies and an exploration of how they build their cognitive map of London. Hippocampus, 32(1), 3–20. https://doi.org/10.1002/hipo.23395

14. Hagendorff, T., Fabi, S., & Kosinski, M. (2023). Human-like intuitive behavior and reasoning biases emerged in large language models but disappeared in ChatGPT. Nature Computational Science, 3(10), 833–838.

15. Heidt A. (2025). ChatGPT for students: learners find creative new uses for chatbots. Nature, 639(8053), 265–266. https://doi.org/10.1038/d41586-025-00621-2

16. Infante, E. (2005). Filosofía de la calle: Filoretos para la vida cotidiana. Madrid: Ediciones Akal.

17. Intelligent. (2023). Nearly 1 in 3 college students have used ChatGPT on written assignments - Intelligent. Intelligent. Recuperado el 12 de diciembre de 2023, de https://www.intelligent.com/nearly-1-in-3-college-students-have-used-ch…

18. Kundera, M. (1995). La lentitud. Barcelona: Seix Barral.

19. Latham-Gambi, A. (2024, October 8). Fake plastic degrees? Generative AI and the threat to academic integrity. Birmingham Law School Research

and Scholarship Blog. https://blog.bham.ac.uk/lawresearch/2024/10/fake-plastic-degrees-genera…

20. Lee, V. R., Pope, D., Miles, S., & Zárate, R. C. (2024). Cheating in the age of generative AI: A high school survey study of cheating behaviors before and after the release of ChatGPT. Computers and Education: Artificial Intelligence, 100253.

21. Levitt, S. D., & Dubner, S. J. (2005). Freakonomics: A rogue economist explores the hidden side of everything. New York, NY: William Morrow.

22. MacIntyre, A. (2007). After virtue: A study in moral theory (3rd ed.). University of Notre Dame Press.

23. Merton, R. K. (1968). The Matthew effect in science. Science, 159(3810), 56-63.

24. Paustian, T., & Slinger, B. (2024). Students are using large language models and AI detectors can often detect their use. Frontiers in Education, 9, Article 1374889. https://doi.org/10.3389/feduc.2024.1374889

25. Perrone-Bertolotti, M., Kujala, J., Vidal, J. R., Hamame, C. M., Ossandon, T., Bertrand, O., Minotti, L., Kahane, P., Jerbi, K., & Lachaux, J. P. (2012). How silent is silent reading? Intracerebral evidence for top-down activation of temporal voice areas during reading. The Journal of Neuroscience: The Official Journal of the Society for Neuroscience, 32(49), 17554–17562. https://doi.org/10.1523/JNEUROSCI.298212.2012

26. Pinto-Bustamante, B. J., Riaño-Moreno, J. C., Clavijo-Montoya, H. A., Cárdenas-Galindo, M. A., & Campos-Figueredo, W. D. (2023). Bioethics and artificial intelligence: between deliberation on values and rational choice theory. Frontiers in robotics and AI, 10, 1140901. https://doi.org/10.3389/frobt.2023.1140901

27. Popenici, S. (2022). Artificial Intelligence and Learning Futures: Critical Narratives of Technology and Imagination in Higher Education (1st ed.). Routledge. https://doi.org/10.4324/9781003266563

28. Pont-Niclos, I., Echegoyen-Sanz, Y., Orozco-Gómez, P., & Martín-Ezpeleta, A. (2024). Creativity and artificial intelligence: A study with prospective teachers. Monographic Articles, 45, 91-97. https://doi.org/10.1344/der.2024.45.91-97

29. Romero-Cristóbal, M., Salcedo Plaza, M., & Banares, R. (2024). ¿Por qué mi médico no es un algoritmo? Fundamentos lógicos de los diferentes

métodos de inferencia clínica a través del ejemplo del trasplante hepático. Gastroenterología y Hepatología. https://doi.org/10.1016/j.gastrohep.2024.502215

30. Scarfe, P., Watcham, K., Clarke, A., & Roesch, E. (2024). A real-world test of artificial intelligence infiltration of a university examinations system: A "Turing Test" case study. PLoS ONE, 19(6), e0305354. https://doi.org/10.1371/journal.pone.0305354

31. Tessler, M. H., Bakker, M. A., Jarrett, D., Sheahan, H., Chadwick, M. J., Koster, R., Evans, G., Campbell-Gillingham, L., Collins, T., Parkes, D. C., Botvinick, M., & Summerfield, C. (2024). AI can help humans find common ground in democratic deliberation. Science, 386(6719), eadq2852.

32. Yaccar, M. D. (2024, diciembre 23). Entrevista al filósofo italiano Franco "Bifo" Berardi: "Vivimos un fenómeno de demencia masiva." Página/12.